sábado, 23 de fevereiro de 2013
Gödel e Anti-Gödel, míssil e antimíssil ou como parar o mundo
Este é um texto preliminar. Ele é baseado em um conjunto de anotações feitas durante o segundo semestre de 2012 e o inicio de 2013 enquanto eu dava o curso “Máquina e Mente” no HCTE/UFRJ. Certamente o texto contém erros e imprecisões e certamente algumas afirmações nele contidas precisam ser mais bem embasadas, inclusive através de literatura e referências existentes.
Cláudio Thomas Bornstein
Para cada Gödel existe um anti-Gödel. Esta é metade da história. Outra metade é que para cada Anti-Gödel existe um Gödel. Será que estas duas metades compõem a história toda ou existirá uma questão maior por trás? Vejamos. No início eram os paradoxos a atrapalhar a vida dos matemáticos. Russel, com a Principia Mathematica, tentou fazer um sistema a prova de paradoxos e Gödel desenvolveu um paradoxo a prova da Principia Mathematica. Será que a coisa pára por aí? Não me parece tarefa impossível, fazer um sistema a prova de Gödel, ou seja, um sistema que se pretenda consistente e completo, e tampouco parece impossível o surgimento de um meta-Gödel que encontre uma brecha no novo sistema. E assim por diante. Tudo isto lembra a luta do míssil e do antimíssil, cada um tentando superar o outro em esperteza e artimanha. Será que é por aí que deve caminhar a ciência?
Algo similar acontece com a Lógica. A lógica clássica bivalente, com o princípio do terceiro excluído (tertium non datur), ou seja, as afirmações são certas ou erradas, claramente esbarra em uma realidade que obviamente não se deixa modelar desta maneira. Daí a tentativa de desenvolver “lógicas alternativas” que seriam capazes de lidar com a contradição. Temos as lógicas para-consistentes, a lógica da diferença, a lógica dialética, lógica fuzzy, etc. Estas lógicas abolem algumas regras, enfraquecem outras, introduzem o caráter probabilístico nas afirmações. Como fica, no entanto, a situação, se houver o questionamento de todas as regras? Que me entendam bem. Eu não estou dizendo que não vale regra nenhuma. Eu estou tão somente falando da possibilidade de toda e qualquer regra estar sujeita a qualquer momento e em qualquer situação a todo tipo de questionamento. Regras seriam válidas mas mutáveis. A única constante que haveria seria a da constante mutação e transformação das regras.
Finalmente existe a máquina, em especial, aquela que tenta atingir o que, antes, seria considerado inatingível: o pensar [1]. Turing com a sua máquina propõe um artefato capaz de pensar, ou seja, capaz de realizar aquilo que muitos consideram ser o cerne da atividade humana. Logo surgem os Penrose, Searle, etc. a brandir a bandeira antropocêntrica e a reação não tarda. Surgem as máquinas de Turing não determinísticas, as máquinas R-Turing (randomized Turing machines), a RASP (Random Acess Stored Program Machine), o computador quântico, o computador de DNA, etc. O que está por trás de tudo isto?
Gödel e anti-Gödel, lógica consistente e para-consistente, Turing e Penrose, são, na verdade, personagens de uma história inserida em uma questão muito mais complexa. Alguns, poucos, elementos desta questão serão mencionados no texto abaixo. Matemática, lógica e computador estão interligados e a luta de alguns, ressaltando as suas deficiências, e outros, enaltecendo as suas virtudes faz parte do caminho da ciência. Apontar virtudes e deficiências é parte do processo de desenvolvimento científico. Afinal é a superação das deficiências que leva ao aperfeiçoamento da ciência. Será que tudo é tão simples assim?
A luta entre aqueles que ressaltam as deficiências e outros que ressaltam as virtudes da matemática, da lógica e do computador pode, no entanto, ser um indicador de um conflito maior. Turing no seu famoso artigo Computing Machinery and Intelligence, na parte final, a guisa de conclusão diz: Podemos esperar que possivelmente máquinas vão competir com o ser humano em todos os campos da atividade intelectual [2]. O que está por trás desta competição? Na verdade máquina e homem deveriam estar juntos e unidos, pois um e outro nada mais são do que dois lados da mesma moeda. Em princípio, a máquina deveria servir ao homem no desempenho daquelas tarefas que ela realiza melhor e o homem cuidaria de um tipo de atividade mais adequado às suas características. A máquina é tão somente a continuação do ser humano em aço, cobre e silício. E o que é o homem hoje em dia sem a máquina? Mesmo papel, lápis e livros apesar de não serem máquinas, são artefatos, conquistas tecnológicas inseparavelmente ligadas à imagem do ser humano. Qual o sentido em se dizer que o computador é superior à mente humana se ele nada mais é do que um produto desta última? [3] Faz sentido delimitar o natural do artificial, ou tudo não passa de um vício metafísico sempre buscando o estabelecimento de fronteiras e limites quando, na verdade, a realidade não se deixa delimitar. Será que o vício metafísico é a única explicação que pode ser dada para justificar a quantidade de trabalhos lidando com a questão da competição homem-máquina?
Na verdade, a competição entre máquina e homem é de longa data. Basta lembrar-se do Ludismo no final do século XIX, na Inglaterra, onde os operários quebravam os teares que ameaçavam os seus postos de trabalho. A máquina costuma fazer as tarefas de forma mais rápida, mais eficiente e com menos erro e o valor do investimento é rapidamente amortizado através do aumento da escala de produção. Para o patrão a máquina representa uma enorme economia de recursos e, consequentemente, aumento dos lucros. Mas a mais gritante vantagem da máquina é a obediência cega. Onde no ser humano existe a inquietação, a insatisfação, a revindicação e o protesto, na máquina existe a aceitação e a submissão. É interessante notar que esta aceitação de ordens e instruções por parte da máquina, uma das razões, em minha opinião, para a ampla difusão da automação, é a mesma aceitação que Turing nega ao nos vender a idéia de uma máquina capaz de superar as prescrições embutidas na sua programação. A máquina cumpre ordens, não as discute. Esta é a principal vantagem da máquina, do ponto de vista do patrão. Já Turing defende a idéia de uma máquina capaz de fazer algo diferente daquilo que ela originalmente foi programada [4]. Turing assim como os demais apregoadores da automação, na verdade está nos vendendo a ilusão de uma máquina capaz de superar as suas limitações quando é justamente o contrário que acontece. É a aceitação, a submissão a ordens, instruções e programas que constitui o grande trunfo da máquina, claro, para o patrão.
A difusão de ilusões é talvez a mais eficiente arma à disposição daqueles que vendem novos sistemas e novas tecnologias e o sonho do iluminismo de que o progresso científico por si só é capaz de melhorar a qualidade de vida da humanidade é uma destas ilusões. É inegável que ciência e tecnologia trouxeram melhoria, mas esta se concentrou nas mãos de alguns. A grande maioria continua à margem do progresso científico, ou então, sofrendo de suas consequências funestas, como, por exemplo, o desemprego. Desemprego este que em grande parte é fruto de uma automação desenfreada feita meramente para baixar os custos e baratear a produção. Evidentemente que preços mais baixos possibilitaram maior acesso às tecnologias, mas esta é tão somente uma parte da história. Bem menos enfatizado é o fato de que a difusão das novas tecnologias permitiu baixar os custos e aumentar a escala de produção, possibilitando maiores lucros aos empresários.
O computador possibilitou que fosse atingido um novo degrau na escala da automação. Se o tear substituiu os braços, o automóvel os pés, agora, com o computador, é chegado o momento da substituição da cabeça. Enquanto a automação anteriormente concentrava-se em operações mecânicas a cargo da classe operária, o computador possibilita a automação do processamento de informações, historicamente nas mãos da classe média. Evidentemente são também criados novos postos de trabalho responsáveis pelo desenvolvimento dos novos sistemas de automação, mas estes ganhos de forma alguma compensam as perdas sofridas.
Olhando a questão social da substituição do homem pela máquina de um ângulo mais filosófico e procurando estender esta tendência ad extremum, verificamos que, no fundo, trata-se da velha tese de Parmênides da ausência de movimento, em nova roupagem. Senão vejamos. Originalmente, a máquina de Turing, base da maioria dos computadores que se encontra no mercado hoje em dia, era um sistema fechado [5]. A máquina tinha um número finito e limitado de instruções, um número finito e limitado de estados possíveis e um número finito e limitado de informações não vazias (non-blank symbols) armazenadas em uma fita. Basta este fato para caracterizar a impossibilidade deste sistema representar o ser humano e, por extensão, o mundo, se considerarmos regras e estados do ser humano/mundo em constante mutação e transformação. Ou seja, não é necessário considerar o ser humano/mundo como sendo infinito para caracterizar a impossibilidade da sua representação por um sistema finito e limitado. Basta considerar regras e estados regendo o ser humano/mundo em constante mutação e transformação de forma que o seu número seja constantemente crescente. Claro, se o tempo, ou seja, a duração do mundo for infinita, então, necessariamente este número de regras e estados também será infinito. Como, no entanto, a permanência do homem no mundo claramente é finita e como aquilo que vem depois do homem já não mais lhe diz respeito, podemos abdicar da necessidade do infinito, para chegar à conclusão de que é impossível reduzi-lo a um sistema finito e limitado. Esta redução nada mais seria do que uma tentativa de parar o mundo, paralisar a constante mutação e transformação de suas regras e estados. Usando uma metáfora para ilustrar a idéia podemos dizer que parar o mundo é equivalente a encerrá-lo em uma caixa. A tentativa de equiparação do ser humano/mundo ao computador, isto é, um sistema fechado, seria equivalente ao seu encerramento em uma caixa [6].
Cabe aqui um breve paralelo entre a visão matemático-filosófica delineada no parágrafo acima e a visão social da substituição do trabalho humano pela máquina. Também a visão social traz implícito o “sonho” de Parmênides de parar o mundo, caso consideremos a classe operária como o motor da história. Eliminar o trabalhador, substituindo-o pela máquina seria parar a história, uma vez que esta é movida pelas reivindicações e pelas lutas deste. Isto é respaldado por fatos da atualidade. A automação aplicada em larga escala, deixada ao sabor do mercado, sem barreiras, restrições e mecanismos de compensação, gera desemprego onde a ameaça deste funciona como uma mordaça, paralisando o homem em sua capacidade de luta e mobilização e, desta forma, impedindo o surgimento de novos sistemas políticos e econômicos [7].
A respeito do caráter estático dos sistemas computacionais baseados na máquina de Turing pode ser contra-argumentado que também a máquina de Turing gera um conjunto de declarações que pode ser constantemente acrescido de novas declarações, de forma que, em sua totalidade, o seu número seria constantemente crescente [8]. Isto, de fato, é verdade. Acontece, no entanto, que este número constantemente crescente é produzido na máquina “fechada” a partir de um número finito e limitado de declarações. Por exemplo, em um instante t seja o conjunto de declarações de uma máquina de Turing “fechada”. Tudo o que acontece na máquina a partir deste instante t é decorrência do conjunto e está implícita ou explicitamente contido em , ou seja, todas as instruções geradas a partir deste instante o são a partir das instruções e informações contidas em . Não importa que o seu número seja constantemente crescente, não importa a inclusão de resultados não-determinísticos, pois também afirmações probabilísticas são decorrência do conjunto , finito e limitado. O fato que para nós é importante, é que tudo na máquina fechada é decorrência de um conjunto finito e limitado de declarações disponíveis em um instante t [9] [10].
Façamos a hipótese agora de que a realidade não se deixa reduzir a este esquema. Suponhamos que as instâncias e os fatos do mundo real não possam ser reduzidos a um conjunto do qual elas seriam decorrência. Ou seja, dentro de certo nível de abrangência nas dimensões espaço/tempo, fatos e instâncias do mundo real não poderiam ser obtidos ou produzidos a partir de um conjunto de regras e informações. Razões para esta impossibilidade pode haver muitas e não cabe, neste espaço, detalhar esta questão. Somente a título de ilustração, menciono duas situações possíveis.
A primeira situação implicaria em certo nível de indefinição que seria inerente à realidade. A realidade não se deixaria definir, de forma que a definição, exigida por sistemas computacionais para a especificação de estados e instruções, não poderia ser atendida. Pode ser contra-argumentado que é possível incluir a “indefinição” na máquina, por exemplo, através de probabilidades. A objeção que se pode fazer, é que neste caso se estaria definindo a indefinição, ou seja, estabelecendo um padrão de variabilidade ao qual a realidade não necessariamente teria que estar sujeita. A própria definição da indefinição seria tarefa impossível, ou seja, haveria indefinição da definição da indefinição. Novamente poderíamos tentar definir a indefinição da indefinição e novamente poderia haver objeções. Como vemos, cada Gödel tem o anti-Gödel que merece e vice-versa.
As idéias do parágrafo acima talvez possam ser mais bem precisadas utilizando o princípio de incerteza de Heisenberg. Este princípio da mecânica quântica se aplica a nível de partículas e diz que o produto dos desvios padrão das variáveis que descrevem a posição e o momento linear da partícula é sempre maior ou igual a uma constante (de Planck). Assim, por exemplo, para que o desvio padrão da variável posição decresça, necessariamente o desvio padrão do momento linear tem que crescer. Ora, desvio padrão mede a variação da variável. Assim para possibilitar uma afirmação mais precisa sobre a posição da partícula é preciso abdicar da precisão na definição do seu momento linear. Como momento linear é o produto da massa pela velocidade ele traduz a energia cinética que a partícula possui. Assim, de uma forma sintética o princípio de incerteza diz que para definir com mais precisão a posição da partícula precisamos abdicar da precisão referente à energia cinética. Ou seja, certo nível de imprecisão e, portanto, de indefinição das características básicas da partícula, é inerente ao sistema.
O princípio de incerteza guarda algumas semelhanças em termos de dificuldade de descrição de sistemas com a questão da “influência do observador” (observer effect) em física. O ato de observar um sistema, ato este que é necessário para descrevê-lo, resulta em uma interação que altera os elementos a serem observados. Por exemplo, a colocação de um termômetro para medir a temperatura de um fluido pode alterar esta última.
Estes fatos traduzem para a esfera científica idéias já amplamente conhecidas na filosofia, em particular, na dialética. Por exemplo, um objeto descrito como uma “mesa” tanto menos se encaixará nesta categoria quanto maior for a precisão da descrição. Aqui entra em ação a contradição existente entre o geral e o particular que é inerente a qualquer sistema. O geral só existe na forma do particular e o particular nega o geral na medida em que ele justamente é particular. Ou dito de outra maneira, quanto mais precisa a descrição, mais particular ela será e, portanto, menos se encaixará dentro da categoria geral.
Não é objetivo do presente texto, aprofundar estas questões. O que se quer é tão somente jogar algumas dúvidas sobre afirmativas dos “vendedores” de sistemas computacionais que insistem em colocar na máquina falsas expectativas referentes a possibilidades de reproduzir, abranger ou mesmo entender aspectos da realidade, em particular, o pensamento. Vimos que até mesmo a descrição da realidade é tarefa difícil, quando mais reproduzi-la, abrangê-la ou entendê-la. Não se está aqui negando a possibilidade do conhecimento nos moldes do ignoramus et ignorabimus (ignoramos e ignoraremos). A subordinação da ciência à fé é uma característica da escolástica a qual se segue a, por vezes excessiva fé na ciência como decorrência do iluminismo. Neste sentido, como antídoto, é bom por vezes relembrar o “só sei que nada sei” de Sócrates ou o “eu sei que nada não sei, mas desconfio de muita coisa” de Guimarães Rosa [11]. Nas últimas décadas, em ciência e na cultura de forma geral, têm se colhido bem melhores resultados com a dúvida do que com a certeza. Aceitar a dúvida, no entanto, absolutamente nada tem a ver com a impossibilidade de dissipá-la, ao menos, parcial e provisoriamente. Se o ignoramus et ignorabimus pretende fazer uma afirmativa com relação ao todo e ao tudo, ou seja, quanto à possibilidade de tudo saber, então se trata aqui de uma declaração vazia de significado, pois o que é o tudo para que dele tudo se possa saber? Como, tantas vezes, aqui “tudo” e “nada” estão intimamente associados. Existem, no entanto, fortes suspeitas de que a possibilidade de tudo saber, na verdade não está a serviço de saber tudo, mas sim de definir como tudo aquilo que se sabe, ou seja, parar e imobilizar o saber em certo patamar e declarar que este corresponde ao tudo que se pode saber. O conhecimento vive da mudança e da transformação e quanto mais se sabe, mais resta ainda a saber.
Foi dito acima que a possibilidade de abarcar a realidade, particularmente o ato de pensar, através de sistemas computacionais esbarra em dificuldades. A título de ilustração mencionou-se primeiramente a dificuldade de descrever e precisar a realidade. Um segundo tipo de dificuldade surge se admitirmos a visão dialética em que cada coisa inclui também a sua negação. De certa maneira, a indefinição da realidade, que foi vista nos parágrafos anteriores e, a visão dialética, que será analisada a seguir, estão intimamente relacionadas. Ambas dizem respeito a um mundo em permanente transformação. Para abordar o mundo é necessário observá-lo o que equivale a pará-lo nem que seja por um instante, e isto é tarefa impossível.
Apesar da estreita conexão entre a indefinição da realidade vista anteriormente, e a visão dialética, pretende-se dar algum detalhe desta última, pois ela implica em jogar alguma luz em uma série de questões importantes. Como já foi dito, a visão dialética consiste em olhar o mundo como algo em permanente mudança e transformação. Cada coisa inclui a sua negação, pois é a não-coisa que alavanca a mudança da coisa, ou, dito de outra maneira, para que algo se transforme é preciso que saia do seu estado atual e isto implica em negar este último.
Pessoas com forte viés positivista, ou seja, pessoas acostumadas a olhar para o mundo pelo ângulo do “ser” e não pelo ângulo do “ser” e do “não-ser” tem extrema dificuldade de lidar com a visão dialética. Tendem a achar que se a coisa “é” e “não é” então vale-tudo, ou seja, vale qualquer coisa, e, se vale qualquer coisa, então nada vale nada [12] [13]. Cessa o domínio da razão e do conhecimento científico objetivo, e passa a existir tão somente o “achismo” e o subjetivismo relativista.
Aqui é importante deixar bem clara a distinção entre dialética e o “vale-tudo”. Ou seja, é importante deixar bem claro que dialética não é sinônimo de caos, absurdo, aleatoriedade e arbitrariedade, ausência de regras e irracionalismo. O fato de que, na realidade, a qualquer momento, qualquer regra ou qualquer estado pode transformar-se em seu oposto é inteiramente distinto da pura e simples ausência de regras. O fato de uma linha de pensamento de uma realidade baseada em certos princípios poder, de um momento para outro, ter a sua validade questionada, pelo fato de ter surgido um fato novo, ou ter sido reconhecida uma incapacidade de lidar com algum aspecto, não tem absolutamente nada a ver com a negação da racionalidade. A dialética não é a negação da razão. Pelo contrário, ela é a afirmação de um razão capaz de lidar com um mundo em constante movimento. Ela é, por excelência, a razão capaz de lidar com o movimento e como realidade é movimento, a dialética é a razão por excelência. As outras formas de raciocínio permitem lidar com aproximações da realidade [14]. Nortear-se pela dialética é admitir a constante e permanente dúvida, é aprender a viver com ela, é aceitá-la como algo natural, é aprender a duvidar da todas as certezas, é questioná-las constantemente. Dialética não significa não ter certezas, mas sim é admitir poder ter a cada momento uma certeza diferente. Dialética é estar certo de que a certeza do momento pode não ser a do momento seguinte. Friso bem, “pode não ser”, mas “pode também ser”.
O que se está dizendo é que em função da constante transformação da realidade é difícil criar uma máquina capaz de representá-la e o mesmo se dá em relação à capacidade de reproduzir o pensamento. A principal linha de argumentação dos defensores da IA forte [15] não negaria este fato, mas tenderia a argumentar que também o ser humano só é capaz de lidar com uma realidade em permanente transformação de uma forma “aproximada”. Tanto a máquina como o ser humano lidariam com a realidade de uma forma “aproximada” e o objetivo seria fazer uma máquina que utilizasse uma “aproximação” tão boa ou melhor que aquela que é utilizada pelo homem. Os adeptos desta linha de pensamento diriam provavelmente que a proposta da dialética de lidar com a realidade de uma forma “plena”, ou seja, incluir todo o seu dinamismo seria utopia.
Examinemos primeiramente a segunda parte da argumentação acima relativa ao caráter utópico da dialética. Na verdade o que se está fazendo neste caso é tomar o termo “dialética” ad extremum, ou seja, para refutá-lo utiliza-se o termo no seu limite o que evidentemente sempre pode ser feito para refutar qualquer outro conceito. Como vimos, no limite da definição de uma “mesa” ela não é “mesa”. Assim também a total variabilidade de tudo, abarcar o mundo em toda a sua dinâmica é algo inconcebível. Vale como assíntota e qualquer racionalidade que tenda a lidar com o real é tão somente uma “aproximação”. Neste sentido, a segunda parte da argumentação reduz-se à primeira parte, ou seja, teríamos que nos contentar com a nossa capacidade de lidar com a realidade de uma forma “aproximada” e, isto seria exatamente o que a máquina faria. Ou seja, a máquina seria falha sim, mas o ser humano também o seria e a capacidade da máquina em reproduzir o pensamento humano não pretenderia eliminar as suas deficiências. Esta argumentação é, de fato, difícil de refutar sem cair em um antropocentrismo que isola e segrega o ser humano, separando-o do resto do universo. Aqui procederemos no sentido oposto, ou seja, consideraremos o ser humano como um sistema “aberto” em relação ao mundo e é isto justamente que marcaria a sua diferença em relação a sistemas computacionais “fechados”.
Entramos aqui em um terreno extremamente difícil em função do pouco conhecimento que se tem. A questão central que se pretende aqui analisar é a da dinâmica do pensamento humano que marcaria a diferença fundamental para sistemas computacionais “fechados”. Como se dá a evolução e quais são os fatores que introduzem novos sistemas de pensamento, o que faz com que surjam novas idéias e conceitos, como se produzem os insights? Pois, se o objetivo é fazer uma máquina capaz de reproduzir o pensamento então, necessariamente, esta máquina precisa incorporar toda a dinâmica deste.
As respostas às perguntas feitas no parágrafo acima transcendem em muito os limites deste texto. Segundo a dialética hegeliana o movimente e a transformação são produzidos pela contradição, ou seja, no “ser” germina o “não-ser” e é este fato que leva a sua transformação. Mas não seria possível plantar também na máquina o “gérmen” da contradição, motor de toda a transformação? Esta questão será analisada mais adiante. Por ora vamos nos ater ao fato de que o “fechamento” em relação ao mundo é também o “fechamento” em relação às contradições que lhe são inerentes e isto representa fechar-se ao movimento e à transformação. Neste sentido, a conexão do ser humano com o mundo seria uma garantia de que este funcionaria como “sistema aberto”. Da conexão e interação com o mundo exterior, incluindo evidentemente também o mundo interior, resultariam os insights, as novas idéias e pensamentos [16] [17]. De uma forma sintética e simplificada esta tese diz que insights, alterações e transformações do pensamento seriam o resultado de uma multiplicidade de fatores do qual fariam parte experiências sensoriais, influências do inconsciente, leituras, conversas, lógica e raciocínio dedutivo, indução, acontecimentos, passado, carga genética, influências da sociedade, pressões, interesses econômicos, desejo, etc. Seria a máquina, com o seu programa e o seu conjunto de instruções, mesmo possibilitando-se mudanças e alterações, capaz desta abrangência?
A resposta a esta pergunta implica em futurologia e me parece fazer pouco sentido. Se será possível no futuro construir uma máquina capaz de incluir toda a imensa e riquíssima gama de transformações que está disseminada pelo mundo, isto é impossível de ser respondido atualmente, nem pelo sim, nem pelo não. A resposta pelo lado do “sim” implicaria em já ter a chave desta “inclusão”. A resposta pelo “não” ainda é pior, pois implica em negar a possibilidade de obtê-la até mesmo em um futuro remoto. Colocar o mundo dentro de uma máquina parece tarefa difícil, mas, por mais difícil que seja, a ninguém é dado o direito de negar a possibilidade de fazê-lo, pelo menos enquanto “fechamento” do mundo através da máquina não for sinônimo de “fechamento” às mudanças e transformações. Como já foi mencionado anteriormente, existe a forte suspeita de que o “fechamento” do mundo através da máquina objetive de fato criar um mundo “fechado”, tarefa esta que evidentemente jamais será possível de ser realizada [18].
De fato, as tentativas modernas de criar alternativas à máquina de Turing “fechada” passam pela “abertura”. Assim, por exemplo, o computador quântico, o computador não determinístico ou o computador de DNA visam aparentemente contornar a rigidez e inflexibilidade de sistemas formais incorporando estruturas mais flexíveis encontradas na natureza. Antes, no entanto, de examinar com mais detalhe as tentativas de “abrir” a máquina, pretendemos abordar rapidamente a tentativa de inclusão da contradição. Como já vimos, a contradição é o motor da transformação e a inclusão da possibilidade de uma máquina negar regras e instruções com a qual ela foi programada poderia ser uma “chave” para aumentar a sua flexibilidade.
Visando examinar tentativas feitas para incluir a contradição e respeitando os limites deste trabalho, vamos nos ater às lógicas para-consistentes. Estas lógicas admitem a contradição, isto é admitem a possibilidade de A e não-A serem verdade. Para evitar as consequências do princípio da explosão, ou seja, para evitar que em consequência da admissão da contradição toda e qualquer declaração fosse verdadeira, o que levaria à trivialidade do sistema, pois nenhuma declaração produzida teria valor, o que as lógicas para-consistentes normalmente fazem é suprimir uma ou mais regras da lógica clássica. Daí resultam sistemas mais fracos, ou seja, não mais se mantém a mesma capacidade da lógica clássica em fazer afirmações. Isto, de alguma forma, confirma resultados do teorema de Gödel, quando este fala da incapacidade de sistemas serem ao mesmo tempo consistentes e completos. No caso das lógicas para-consistentes o preço que se paga é a perda da completude, isto é, não mais se é capaz de fazer toda e qualquer afirmação pertinente ao sistema.
Cabe aqui fazer algumas claras distinções entre as lógicas para-consistentes e a dialética. Em primeiro lugar, nas lógicas para-consistentes admite-se uma ou outra contradição e não, como na dialética, a possibilidade de contestação de toda e qualquer regra. Outra diferença marcante é que nas lógicas para-consistentes o sacrifício da consistência tem o alto preço da perda da completude. Na dialética, pelo contrário, a possibilidade da contradição aumenta a abrangência do método, ou seja, mais fenômenos podem ser explicados se admitirmos a possibilidade de mudança e transformação das regras que regem o sistema.
Evidentemente os positivistas mencionarão o caráter “não-científico” de tais afirmações. Dirão que a admissão de uma constante mudança e transformação das leis e regras impossibilita o seu processo de validação. É claro que o critério de validação é uma típica ferramenta positivista que não se aplica à dialética em seu sentido estrito [19]. Isto não significa a impossibilidade de diálogo entre adeptos de um e outro campo da ciência nem tampouco significa a circularidade tautológica de que somente dialéticos poderiam justificar a dialética. Pelo contrário, permanece válido o “método científico” só que dentro de uma abrangência bem maior. Dentro desta abrangência maior a própria validação teria os seus paradigmas questionados, ou seja, a própria validação teria que ser sujeita à dúvida dialética. Disto resultaria um sistema bem mais complexo que, no entanto, não eliminaria a possibilidade de comprovação e rejeição dos resultados pela realidade. Por exemplo, no caso em questão, o próprio desenvolvimento das lógicas para-consistentes surgidas em função das dificuldades da lógica clássica em lidar com fenômenos reais, comprovaria a importância da contradição, reforçando pontos de vista da dialética.
Para encerrar este trabalho pretende-se ainda examinar as tentativas feitas para gerar uma máquina “aberta”, isto é, incluir na máquina a possibilidade de sua transformação e evolução através da incorporação de aspectos importantes da realidade. Já foi aqui mencionado o computador quântico e o computador de DNA. A questão do aprendizado da máquina não será examinada por ser assunto por demais conhecido. O aprendizado hoje em dia presente na maioria dos sistemas computacionais costuma dar-se segundo padrões estabelecidos de forma bastante rígida e não costuma levar a uma mudança e transformação da máquina em um sentido mais amplo que é o que aqui nos interessa.
Em função dos limites de espaço e tempo examinaremos tão somente o computador não determinístico e para tornar a discussão mais concreta examinaremos com algum detalhe o artigo de Jef Raskin, Computers are not Turing Machines [20]. Raskin começa mencionando os limites impostos pela máquina de Turing para a construção de um artefato capaz de pensar ou de ter consciência. A sua proposta é uma máquina de Turing probabilística que seria mais adequada à modelagem de problemas da realidade. O que Raskin defende é uma máquina não algorítmica [21] que não teria um sistema formal como base e que, portanto, não estaria sujeita aos resultados dos teoremas de Gödel. A essência é o acesso externo a números aleatórios (number selected at random, também conhecidos como NSAR) que seriam diferentes de números produzidos por um gerador aleatório de dados. Este último é um programa, tem um algoritmo por base e, portanto, pode ter tendenciosidade. Sendo um programa, os números gerados podem, em princípio, ser previstos o que pode ser usado para provar a incapacidade de uma máquina baseada em tal gerador realizar determinada tarefa. Por exemplo, caso se deseje determinar o máximo de uma função diferenciável com um grande número de máximos locais, uma pessoa evidentemente mal-intencionada poderia ser levada a colocar o máximo global em um ponto não gerado pelo gerador. Como consequência a máquina seria incapaz de encontrar o máximo global mesmo em um tempo infinito[22]. Já no caso dos NSARs isto é impossível, pois dada uma lista de k números gerados nenhum algoritmo é capaz de prever o (k+1)-ésimo número. Os NSARs seriam acessíveis ao computador através de fenômenos externos dotados de aleatoriedade verdadeira e Raskin cita uma série de situações onde isto seria possível. Por exemplo, os dígitos de ordem inferior do número de pessoas ativas em certo instante em uma rede computacional suficientemente grande poderia ser uma possível fonte de NSARs [23]. Para o caso examinado da determinação do máximo global de uma função diferenciável no com grande número de máximos locais, a partir de pontos gerados com base nos NSARs faríamos uma busca nas imediações do ponto. Indubitavelmente acabaríamos por identificar o ótimo global com uma probabilidade diferente de zero depois de algum tempo finito e esta probabilidade tenderia a um à medida que o tempo tendesse para infinito.
Cabem algumas críticas a este modelo de computador “aberto”. Em primeiro lugar, a alegada aleatoriedade “verdadeira” tão somente o é enquanto não for provado o contrário [24]. Por exemplo, o que aconteceria com a maneira de gerar números aleatórios mencionada por Raskin correspondendo ao número de pessoas ativos em uma rede, se por algum motivo a rede caísse, ou se a rede fosse desativada durante certo intervalo de tempo? No sentido contrário, o que ocorreria se, por algum motivo, a partir de certo instante, todos os usuários da rede resolvessem permanecer ativos? O próprio princípio da incerteza de Heisenberg que caracteriza fenômenos da mecânica quântica como intrinsecamente aleatórios pode cair amanhã se puder ser desenvolvida uma ferramenta que permita calcular com precisão estipulada pelo usuário a posição e a velocidade de uma partícula. Em ciência nada é definitivo, nem mesmo a suposta aleatoriedade de certos fenômenos naturais. Não se pode excluir a possibilidade de que, de fato, Deus não joga dados.
O mais grave, no entanto, é a afirmativa implícita no artigo de Raskin de que a “abertura” da maquina para o mundo, a tentativa de incluir o pensamento, passa pela inclusão da aleatoriedade. O fato de existirem fenômenos onde reina a aleatoriedade não pode servir de pretexto para negar a imensidade dos fenômenos onde a explicação passa por leis, princípios e regras. Como já foi dito anteriormente, o fato destas mudarem ao longo do tempo não pode servir de pretexto para negar que grande parte da nossa racionalidade é baseado no encadeamento lógico, raciocínio indutivo e dedutivo, capacidade de associação, princípio de causalidade, etc. Querer reduzir tudo isto à geração de números aleatórios é de um primarismo semelhante ao do algoritmo de tentativa e erro que está por trás da determinação de máximos globais, único exemplo dado por Raskin para um procedimento inteligente da sua máquina. Que tentativa e erro hoje em dia tenha que ser utilizado para resolver um problema difícil como o da determinação de um máximo global, isto talvez seja um lamentável fato a aceitar por ora. Que tentativa e erro seja hoje utilizado em grande escala pela indústria farmacêutica para gerar novas drogas cuja eficácia é muitas vezes quase que exclusivamente baseada em ensaios estatísticos, é um fato mais lamentável ainda.
O que leva à popularidade de métodos como tentativa e erro? Na indústria farmacêutica a razão é óbvia: barateamento de custos. É muito mais barato fazer testes estatísticos do que tentar estabelecer bases analíticas para a eficácia de uma droga. Dentro de uma visão mais ampla este procedimento se encaixa no que poderíamos chamar de automação da atividade de pesquisa e, neste sentido, é mais uma etapa no processo geral de automação. Ensaios estatísticos são feitos de forma geral e quase que automática, enquanto que o entendimento analítico do funcionamento de uma droga requer mão-de-obra bem mais qualificada e obriga que para cada caso seja utilizado um ferramental específico.
Meta-heurísticas, tentativa e erro e aleatoriedade tudo aponta em uma mesma direção: a substituição da complexidade de um mundo real por um mundo virtual esquemático e simplificado e, por isto, facilmente implementável. Se a máquina de Turing representa a tentativa de substituição de um mundo rico em contradições e transformações pela platitude da lógica positivista, a máquina probabilística de Raskin tenta ir um passo além. Se considerarmos que nos últimos 50 anos manteve-se o nível de complexidade das operações elementares que o computador é capaz de realizar, mas aumentou substancialmente a velocidade de processamento e a capacidade de armazenamento, é fácil entender porque métodos gerais como tentativa e erro ou meta-heurísticas, onde aleatoriedade tem papel fundamental, representam muitas vezes a solução mais econômica. Significam um passo a mais na automação do raciocínio substituindo qualidade por quantidade: ao invés de programas elaborados, instruções simples e gerais repetidas um grande número de vezes.
Afinal, se o objetivo fosse mesmo fazer uma maquina pensante provavelmente o mais promissor seria a máquina biológica ou o clone. Questões de ética costumam ser alegadas contra esta última. Mas porque seria antiético fazer um clone de Einstein e ético fazer um robô que pensasse exatamente da mesma maneira? Seria porque o primeiro teria que ser considerado um ser vivo e o segundo seria uma mera máquina [25]? Sendo vivo e humano teria que ter os mesmos direitos e as mesmas características de um ser humano. Provavelmente teria a mesma independência e a mesma capacidade crítica. Formulado de outra maneira: o clone seria indubitavelmente um artefato e ainda por cima um artefato “aberto”, ou seja, incorporaria a essência das transformações e da flexibilidade do mundo e da vida. No entanto não seria máquina.
O que é que significa ser máquina? Aqui atingimos a essência do que está por trás da máquina pensante. Máquina costuma descrever algo mecânico, rígido e inflexível, sujeito a comandos e instruções, realizando tarefas programadas. Máquina pensante encerra uma contradição na medida em que o pensante significa exatamente o contrário. Significa liberdade, flexibilidade e capacidade de tomar decisões de forma independente. Qual o sentido desta contradição? Será que o pensante entra na máquina tão somente para dourar a pílula amarga que se quer fazer engolir ou será que visa subordinar o primeiro à segunda, colocando-o na camisa-de-força de um conjunto de regras e instruções? Na verdade o ou não precisa ser exclusivo e ambas as razões podem ser verdadeiras. Máquina pensante vende melhor a máquina e, de quebra, tenta parar o pensamento, ao menos aquele que incomoda porque insiste em transformar aquilo que melhor seria que ficasse como está.
Notas
[1] É aqui que começa o erro. Será que o “pensar” é realmente o ápice da atividade humana? O que seria do “pensar” sem, por exemplo, o “ver” (e máquinas para o “ver” remontam pelo menos ao século XVII)?
[2] O artigo do Turing foi publicado originalmente em 1950 na revista Mind, vol. LIX, no. 236 e mais tarde publicado no livro Minds and Machines editado por Alan Ross Anderson, Prentice Hall, 1964 sendo esta última a referência que usamos no presente texto.
[3] Excelente exemplo da tentativa de criar uma competição entre a máquina e o homem é dado pelo artigo de Jef Raskin, Computers are not Turing Machines, disponível em http://humane.sourceforge.net/unpublished/turing_machines.html. Raskin menciona uma série de tarefas que máquinas modernas seriam capazes de desempenhar melhor do que o homem, aparentemente sem notar que ele poderia ter economizado toda a verve, pois uma mera alavanca é capaz de levantar um peso além do alcance de qualquer ser humano. O que é deveras estranho é que em nenhum lugar Raskin menciona que todas as invenções que ele coloca nas alturas são criação humana e nada mais do que isto. Evidentemente que o que está por trás de afirmações deste tipo é o anti-humanismo que tem por finalidade colocar a espécie humana em um segundo plano para colocar o artefato no topo da escala de valores. Cabe lembrar que embora as invenções possam estar ao alcance de toda humanidade, elas são, na maioria das vezes produzidas em poucas fábricas de poucos países e, mais importante, pertencendo a poucos. Enaltecendo as invenções produzidas por estes poucos se os coloca acima da grande maioria, o que é justamente o objetivo.
[4] Veja por exemplo pg. 29 do artigo de Turing mencionado na referência acima: Most of the programs which we can put into the machine will result in it doing something that we cannot make sense of at all, or which we regard as completely random behavior. Intelligent behavior presumably consists in a departure form the completely disciplined behavior involved in computation…
[5] Aqui usamos o termo “fechado” no sentido de “fechado e limitado”, ou seja, um sistema que tem um limite ou fronteira em relação ao mundo, ou seja, a máquina é claramente delimitada em relação ao mundo que a cerca.
[6] Encerrar o mundo em uma caixa guarda alguma semelhança com o “sonho de Hilbert” da axiomatização da matemática. O programa de Hilbert se propunha a revelar as verdades matemáticas a partir de uma série de axiomas. Os axiomas encerrariam em si todas as verdades, ou seja, reduzir-se-ia a matemática aos axiomas. Os teoremas de Gödel colocaram sérias restrições ao sonho de Hilbert. De forma equivalente, existiria o sonho dos adeptos da IA forte na criação de um sistema formal capaz de gerar todas as verdades do mundo. Neste caso o mundo seria representado por suas verdades. Na mesma linha de pensamento se situa o sonho positivista de reduzir tudo à ciência (veja, por exemplo, systematic musicology na Wikipedia e o sonho positivista de descobrir “leis da música”; veja também “The paradox of positivism” de Jennifer Vermilyea em web.uvic.ca/~onpol/spring2006, revista On Politics, spring 2006, pgs. 121-130 em que é mencionado que “the positivist dream is to make language a scientific neutral means by which it can then mirror the world it seeks to know”).
[7] Neste sentido é interessante examinar o livro de Yoshiro Francis Fukuyama, “The End of History and the Last Man” que defende a idéia de que a ampla difusão do capitalismo e do livre mercado significam o fim da evolução sócio-cultural da humanidade e implicam na conquista de uma forma final de sistema de governo.
[8] Vamos aqui chamar de declarações todo o conjunto de instruções, informações contidas na fita e estados da máquina.
[9] Inclusive podemos imaginar que o conjunto contém instruções ou informações associadas a probabilidades.
[10] Evidentemente é possível considerar que em um instante novas instruções sejam incluídas o que não muda absolutamente nada nos resultados da análise feita, pois simplesmente a desloca de para . A questão muda de figura se imaginarmos uma situação em que constantemente novas instruções são inseridas no sistema, por exemplo, via entrada de dados. Isto não mais caracterizaria uma máquina “fechada” e será examinado mais adiante neste texto.
[11] Veja Grande Sertão: Veredas.
[12] Veja principio da explosão na lógica clássica ou então o artigo “Paraconsistent logic” na Wikipedia/en onde o princípio da explosão é formalizado. Na lógica clássica ex contradictione sequitur quodlibet, ou seja, a partir da aceitação de uma contradição tudo pode ser admitido, isto é, qualquer afirmação passa a poder ser considerada como verdadeira.
[13] Típico da visão positivista é a afirmativa de Lucas no artigo Minds, Machines and Gödel, pg. 56, no livro de A.R. Anderson mencionado acima: “not only can we fairly say simply that we know we are consistent, apart from our mistakes, but we must in any case assume that we are, if thought is to be possible at all”. Como esclarecimento da frase acima cabe dizer que consistência implica na ausência de contradição. Em defesa de Lucas deve ser dito que apesar dele defender com unhas e dentes a “consistência”, isto é, a ausência de contradição, ele admite, de acordo com o segundo teorema de Gödel, a impossibilidade de prová-la “de dentro do sistema”, ou seja, ele admite a necessidade de abdicar de algum nível de formalização para que possamos chegar à conclusão de que o sistema é consistente. Segundo Lucas, o fato da máquina ser regida por um sistema formal tornaria esta tarefa impossível. Somente o ser humano poderia transcender a esta formalização.
[14] Da mesma maneira que a mecânica Newtoniana permite lidar com a realidade se nos mantivermos no âmbito dos fenômenos do nosso cotidiano e o modelo da terra plana da Grécia pré-socrática permite lidar com fenômenos geográficos se nos mantivermos no limite de um raio de alguns quilômetros, a racionalidade não-dialética representa um modelo simplificado da realidade que pode ser extremamente útil no nosso dia-a-dia, mas que deve ser apreciado com a devida cautela se abordarmos fenômenos mais complexos.
[15] A IA forte defende a idéia de que sistemas computacionais podem reproduzir o pensamento humano, ou seja, a máquina poderia, no futuro, desempenhar todo tipo de tarefa mental que o ser humano é capaz de realizar. Alan Turing é um típico representante desta visão.
[16] Novos paradigmas científicos são obviamente um resultado da interação do ser humano com o mundo, na medida em que o paradigma antigo não mais é capaz de explicar convenientemente os fatos que acontecem (veja Thomas Kuhn, The structure of scientific revolutions, 1962). Kuhn também oferece importante argumento que depõe contra as teses da IA forte, quando ele menciona que a noção de uma verdade científica jamais pode ser determinada exclusivamente por critérios objetivos. Certo nível de subjetividade faria parte da compreensão científica. Estas idéias evidentemente colocam em cheque teses da IA forte, pois se o pensamento envolve subjetividade, quem forneceria a subjetividade da maquina pensante? O seu criador? Neste caso, qual seria a validade deste tipo de pensamento?
[17] Segundo esta visão, alguém encarcerado desde o nascimento em uma cela escura, sem nenhum contato com o mundo exterior, seria incapaz de qualquer tipo de conhecimento (apesar do seu acesso ao “mundo interior”) e existem alguns exemplos históricos que fazem supor o acerto desta afirmação.
[18] Possivelmente o objetivo real, mas não confesso não seja o de “fechar” o mundo às transformações mas sim “fechá-lo” a algumas transformações.
[19] Aqui vale mais uma vez ressaltar afirmações de Thomas Kuhn já mencionadas em nota anterior. Necessariamente existe algum tipo de subjetivismo no estabelecimento dos paradigmas científicos. Dialética e positivismo não se deixam reduzir um ao outro, nem tampouco um pode ser validado com ferramentas que pertencem ao outro.
[20] Este artigo está disponível em http://humane.sourceforge.net/unpublished/turing_machine.html.
[21] Um algoritmo implica em uma série de regras que definem uma sequencia de operações. Baseia-se na existência de instruções bem definidas realizadas passo a passo, produzindo certo número de estados. A maioria dos algoritmos é recursiva, ou seja, baseia-se na repetição de um mesmo conjunto de operações, realizadas em diferentes estágios do sistema.
[22] Para maiores detalhes veja o artigo citado.
[23] Para maiores detalhes veja o artigo citado.
[24] O próprio Raskin confessa que a aleatoriedade “verdadeira” é uma questão de fé quando ele diz: I take it as granted that the natural world has truly random phenomena.
[25] Novamente aqui nos deparamos com fronteiras e limites entre o natural e o artificial, limites estes que tendem a desaparecer à medida que se avança em ciência. Qual seria a diferença entre um robô construído com pele sintética, órgãos internos fabricados a partir de células-tronco e um clone?
Idéias Adicionais
• Explorar um pouco a idéia Criatura/Criador que pode estar por trás da questão Máquina/Homem ou Máquina/Mente. Este arquétipo está presente em praticamente todas as culturas e todos os tempos. O próprio mito de Édipo nada mais é do que a competição de criatura e criador, filho e pai, pela mesma mulher. O aprendiz de feiticeiro (sorcerer’s apprentice) é uma versão deste arquétipo. Trata-se de uma contradição inerente à vida em que a criatura, que deve a sua existência ao criador, tem que se voltar contra este último para conseguir trilhar o seu próprio caminho. Adão e a árvore do fruto proibido é outra versão desta história e pais e filhos vivem constantemente esta contradição. Visto de outro ângulo, o criador teme que a criatura, que é a sua criação, o supere e com ele concorra. Aqui Édipo é quase que pensamento obrigatório, pois a concorrência primeira que ocorre é pelo amor da mãe/esposa. No caso da Máquina/Homem é lógico que este último tem medo que a primeira o suplante e lhe roube não a mulher, mas o posto de trabalho que é a sua inserção no social. Este roubo não é um medo infundado como vimos neste trabalho.
Assinar:
Postar comentários (Atom)
Nenhum comentário:
Postar um comentário