Alguns questionamentos que se pretendem inteligentes sobre a artificialidade

por Odécio Souza

[Abstract]
“For the purpose of this publication, I take questions that I consider basic, addressing the so-called Artificial Intelligence (AI). These questions are intended to refer to the nomenclature of this intricate and multidisciplinary science, to say something about its feasibility, and to introduce some analysis of the morality to which it applies, and hence the ethics to be expected of it.
Note that by AI you can take both, a whole field of scientific research and technological development, and – by looking at your own smartphone – a voice recognition “App”. This is my first question: Does such a broad possibility not require scrutiny that allows a better understanding of what it refers to?”

Sumário

Como objetivo desta publicação, tomo questões que considero básicas e que se dirigem à assim chamada Inteligência Artificial (IA). Estas questões pretendem referenciar a nomenclatura dessa intrincada e multidisciplinar ciência, dizer algo sobre sua exequibilidade, e introduzir alguma análise a respeito da moral que a ela se aplica, portanto, a ética que dela se espera.

Observe-se que por IA pode-se tomar ambos, tanto todo um campo de pesquisa científica e de desenvolvimento tecnológico, quanto – ao observar seu próprio smartphone – um “App[1]” de reconhecimento de voz. Está aí meu primeiro questionamento: Uma possibilidade assim ampla não carece de um escrutínio que permita um melhor entendimento sobre o que se refere?

odecio

 

Alcunha

Ao citar a polarização entre IA Fraca e IA Forte, Cabral (2019) reproduz uma visão que julgo perigosa e superficial.[2] Não desejo, com tal assertiva, rivalizar com ele, ou contestar sua exposição, mas opinar que a IA, enquanto matéria fecunda e intensa, merece, no cenário presente, uma ontologia melhor.

Tomo ontologia como a necessidade de análise de um conjunto de saberes, ou “parte da filosofia que estuda a natureza dos seres, o ser enquanto ser.” (Aulete, s.v. “ontologia”). Desejo argumentar que a natureza da pressuposta inteligência exercida por máquinas carece de explicações mais esclarecedoras, detalhadas de uma forma melhor. É óbvio que o estudioso da IA conhece seus níveis, possibilidades e limitações, mas estaria alguém realizando o devido esclarecimento sobre essa matéria para os não especialistas?

Não tenho a pretensão de – e confesso não ter a habilidade para – desenvolver ou sequer descrever, detalhada e cientificamente, cada uma das estratégias e possibilidades da IA. Russell & Norvig, em Artificial Intelligence, até onde eu pude averiguar, apresentaram essa descrição, de uma forma que é considerada por muitos como suficiente. Quero, entretanto, enunciar um conjunto de questões que expressam algumas inquietações sobre a utilização, dessa tecnologia, ou pelo menos de como se nomeiam esses bois.

Na expectativa de explicar melhor meu ponto de vista, indico que, entre um algoritmo estatístico (rule-based expert system e fuzzy expert system) e uma rede neural (RNA, artificial neural network), alimentada por grandes massas de dados,[3] há uma grande quantidade de conceitos e estratégias, cuja caracterização demandaria alguma explicação.

Acredito ter encontrado em Negnevitsky (2004, p.167) um argumento em favor dessa explicação:

Embora uma rede neural artificial (RNA) atual assemelhe-se ao cérebro humano, da mesma forma que um avião de papel se parece com um jato supersônico, é um grande passo à frente. As RNAs são capazes de “aprender”, isto é, usam a experiência para melhorar seu desempenho. Quando expostos a um número suficiente de amostras, as RNAs podem generalizar para outras que ainda não encontraram.[4]

Retomo a polarização da IA (Forte X Fraca) com uma autorreferência, a partir das “possibilidades de utilização da IA como executora de tarefas que – ao mimetizarem ações que podem ser consideradas inteligentes – tendem a executar atividades que, se encetadas por seres humanos, tomariam um tempo excessivo ou conteriam indeterminações que a IA tende a contornar” (Souza, 2019). Estas atividades nos remetem a pelo menos duas possibilidades para o futuro da IA Forte, as quais serão, em seus extremos, utópica ou distópica. Como possibilidade utópica pode-se prever, ao limite, uma sociedade em que todo o trabalho mecânico ou intelectualmente subalterno seja realizado por máquinas, de forma que todos os seres humanos possam se tornar semideuses, dedicados exclusivamente às artes, aos esportes, à filosofia. No extremo da possibilidade distópica, entretanto, pode-se antever a superação da raça humana, do mesmo modo que o Homo sapiens superou seus antecessores hominídeos. Esta superação foi descrita por Harari (2017, p.11-27).

Entre os dois extremos aqui aludidos, quero crer, há uma gama de possibilidades que tende ao incontável. Um chatbot treinado para auxiliar decisões financeiras tem uma importância e provavelmente uma técnica de criação diferente daquela máquina da IBM que venceu o Jeopardy,[5] mas acredito ser importante evidenciar que são instâncias de IA classificáveis como Fracas, assim como a atual capacidade de reconhecimento de fala ou de rostos, do mesmo modo que a possibilidade de indicar um caminho através do trânsito caótico das grandes metrópoles. Não seria, entretanto, oportuno aprimorar a “taxionomia”[6] da IA Fraca para algo que esclarecesse melhor com que tipo de entidade se está lidando?

Esta primeira justificativa do termo taxonomia encerra uma provocação, considerando seu uso “clássico”, na área das ciências biológicas, ou seja, sua referência aos seres vivos.

Falar simplesmente sobre a IA seria como dizer “a grama é um ser vivo como o boi que dela se alimenta”. Mas dizer “ser vivo” querendo referenciar tanto a grama quanto o boi, carrega um grau de imprecisão absurdo. É necessário dizer que a grama é um vegetal com uma determinada complexidade e é necessário dizer que o boi é um animal com uma determinada complexidade. Dizer sobre o boi como ser vivo não expressa, por exemplo, todo o alcance daquilo que pode ser extraído do boi, o couro, a carne, os ossos, os chifres. A biologia então indica para o boi a nomenclatura de mamífero, herbívoro, etc., o que então começa a indicar a diferença da gramínea da qual o boi se alimenta.

Se essa taxonomia não parece adequada ao leitor, tomemos uma segunda. Segunda justificativa, também uma provocação. Segundo Ferraz (2010), aplicada à educação, “a Taxonomia de Bloom é um desses instrumentos cuja finalidade é auxiliar a identificação e a declaração dos objetivos ligados ao desenvolvimento cognitivo […], engloba a aquisição do conhecimento, competência e atitudes.” Especialmente considerando a possibilidade de alcançar uma IA Forte, relembrando, aquele conjunto de atitudes que mimetizariam um ser humano ao ponto de substituí-lo, deveríamos apreciar a necessidade de instruir essa entidade, tal qual se instrui uma criança e depois um jovem para uma vida adequada em sociedade, no caso ora referenciado, mais especificamente um comportamento profissional satisfatório.

Retomando Ferraz (2010), observe-se que cada domínio da Taxonomia de Bloom é segmentado em níveis, cujas categorias compreendem capacidades adquiridas em níveis anteriores. Trocando em miúdos, criar uma entidade em IA Forte não significaria criar um “caminho de treinamento” que a conduzisse por uma trilha assim delineada?

Se o leitor não compreendeu as provocações, esclareço-as. As duas taxonomias citadas se dirigem a seres vivos, digamos, naturais. A artificialidade está caminhando para um conjunto de capacidades (também limitações da “classe” “Errar é humano”) que permite essas analogias? Creio ser justo assinalar que admito aqui uma distorção da diferenciação IA Forte X Fraca já aqui indicada. Estou assumindo que uma IA Forte seria aquela que se aproximaria muito, intelectualmente e fisicamente com um ser humano. Provável aplauso daqueles que acreditam na ficção científica, quase certa vaia do pensador científico com os pés fincados na realidade.

Então, a preocupação que eu quero expressar sobre a IA é justamente desse nível. Não há espaço neste blog, e não sei se há competência deste articulista, para estabelecer uma taxonomia que seja efetivamente apropriada. Quero crer que há, entretanto, a necessidade de, ou existe uma boa justificativa para, as pessoas que se ocupam da ciência, e as pessoas que promovem a divulgação da ciência, passem a fazer uma clara distinção, ao falar da IA, entre um objeto simples, ou sendo possuidora de um determinado nível de habilidade, e de outro muito mais complexo. Para tentar esclarecer esses níveis, outra questão. Uma criança em idade pré-escolar, ao garatujar o próprio nome, está situada no mesmo nível de compreensão da sua língua materna que um membro da Academia de Letras da sua nação?

Acredito que seria tolice da minha parte associar-me aos ludistas, pois sequer utilizo tamancos,[7] mas pelo contrário, pelo questionamento daquela aludida polarização (IA Fraca X IA Forte) e do simples mergulho na realidade tecnológica, estou tentando ser útil em um debate que sequer está bem estabelecido. Utilizarei a colaboração obtida em uma apresentação ao GEMS-TIDD, que intitulei “Questionamentos que se pretendem inteligentes sobre a artificialidade” e que foi brevemente detalhada pelo líder do grupo, Prof. Dr. Ítalo Vega.[8]

Gostaria, no sentido do ousado aprimoramento dessa taxonomia, repudiar o uso dos termos Forte e Fraca. Parecem-me carregar um senso de valor inoportuno, no sentido de que Forte seria tomado como algo melhor que Fraco. Assim, como já havia afirmado antes (Souza, 2019), “mais modernamente, tais termos têm sido reinterpretados, assumindo respectivamente a forma de ‘IA Restrita’ e ‘IA Ampla’ [ou Geral]”. Mesmo trocando ‘Fraca’ por ‘Restrita’, será necessário explicar que a restrição acontece em termos de um conjunto específico – se não reduzido –, de habilidades de uma entidade ‘Restrita’, quando comparadas às habilidades do Homo sapiens. Isto – observe-se a complexidade do tema – sem mergulhar no necessário debate entre habilidades específicas, como as de um violonista, por exemplo, e habilidades genéricas, como a capacidade de manipular objetos desde a característica do dedão oposto.[9] Esses conjuntos podem ser verificados através de Apps isolados como, por exemplo, aquele denominado SOBEK, o qual apresenta a capacidade de isolar os termos mais significativos de um texto e aqueles que lhe são relacionados, revelando assim alguma conceituação, ou seja, criando um grafo que interpreta um texto.[10] A indicação ‘Ampla’ aponta para aquele extremo onde nossa espécie seria mimetizada em características intelectuais e físicas, de forma integral.

Em sua análise sobre os olhares possíveis, questionando sobre sua necessidade, Camargo (2019) demonstra a complexidade desse extremo da polarização. Se o leitor meditar um pouco a respeito das questões explanadas em “Os olhos do robô” perceberá o quão complexa e potencialmente distante está a possibilidade de “mimetização integral” a que me refiro, mas também deverá perceber – acredito – que não é simplesmente um devaneio.

 

Exequibilidade

À questão da exequibilidade, darei somente um pequeno destaque, com a finalidade de fazer justiça a tal fato. Ela se justifica em função das objeções expressas diversas vezes no seio do GEMS-TIDD, ao esclarecer que aquela máquina que hoje se conhece como computador e se baseia fortemente na designada “arquitetura de Von Neumann,”[11] e em determinado trabalho de Turing,[12] careceria de habilidades para interpretações semânticas. Deixo aos mais capacitados eventuais argumentações sobre esse ponto específico.

É, entretanto, exequível uma certa instância de IA, aquela designada Fraca, para a qual apresento dois exemplos, colhidos de fontes recentes. Primeiro, a indicação de Carnielli (2019), sobre um algoritmo que teria encontrado um equívoco de encadeamento lógico em uma conhecida formulação de Gödel. Segundo, a notícia d’O Estado de São Paulo (2019) sobre uma bicicleta criada na china, com a capacidade de equilibrar-se sozinha e de superar obstáculos presentes no seu caminho.

 

Ética e Moral

Naquela citada apresentação ao GEMS-TIDD, eu me propunha a “explorar algumas questões sobre a IA, partindo de um pressuposto, até certo ponto real, da sua exequibilidade, tentando indagar principalmente sobre que ética a IA exercerá, baseada em qual moralidade.”

Ao discutir “Até onde podemos ser iludidos pela Inteligência Artificial”, Silvestre (2019) nos confronta com questões morais inseridas em um chatbot. Se é possível treinar um agente de IA Fraca, de forma que ele desenvolva a capacidade de “enganar” uma pessoa que tenta resolver uma questão financeira por telefone, sendo tal “engano” caracterizado pela dificuldade em distinguir o atendente humano do artificial, pergunto-me por que alguns acreditam que isso seja uma imoralidade.

Por outro lado, em “Inteligência Artificial atinge a barreira do significado”, o Times (2019) indica que “Algoritmos de aprendizado de máquina ainda não entendem as coisas como os humanos – com consequências desastrosas […] a corrida para comercializar a IA colocou uma enorme pressão sobre os pesquisadores para produzir sistemas que funcionem ‘bem o suficiente’ em tarefas restritas.”

De cunho próprio, sugiro que se tome um hipotético App que se dedique a dar suporte a decisões sobre aplicações financeiras. Este App julgaria a conveniência dos pequenos investidores individuais, ou das corporações que lhe financiaram o desenvolvimento, caso se apresentasse um cenário de interesses conflitantes?

Segundo Bostrom (2011), “Responsabilidade, transparência, auditabilidade, incorruptibilidade, previsibilidade e uma tendência para não fazer vítimas inocentes gritarem em desamparada frustração […] Esta lista de critérios não é de forma alguma exaustiva, mas serve como uma pequena amostra do que uma sociedade cada vez mais informatizada deveria estar pensando.”

Um entendimento possível para ética e moral, questão que, embora adjacente ao tema da IA propriamente dito, me parece fundamental. Ouso sintetizar ética como expressa pelo conjunto reflexão e ação; enquanto moral seria englobada pela tríade lei, código, costume.[13]

Ao tentar encontrar sustentação para este ponto da argumentação, surpreendi-me com este trecho de La Taille (2016): “O que eu quero ser não pode de forma alguma ignorar o agir moral. Não somente não pode ignorar tal ação, como ela é altamente valorizada como característica central da identidade.” Ainda que a preocupação do autor seja dirigida a outro campo, ele está aí citando uma ponderação que atinge, ou melhor, deveria atingir um agente em IA: identidade.

Elaboradas estas considerações, ofereço algumas questões:

  • Qual código moral é aceitável? Aquele que preserva os interesses da receita financeira, aquela ética esquecida em função do “bem o suficiente” (vide o referenciado artigo do Times)?
  • “Agendas ocultas”, pertencentes aos seres humanos podem ser inclusas, intencionalmente ou não, em Apps e podem ser mantidas ocultas ou mais facilmente identificáveis?
  • O quanto a sociedade civil e seus representantes legisladores se encontram suficientemente informados pela ciência? Ou uma questão ainda mais aguda, o quanto a ciência efetivamente refletiu a respeito desse tipo de questão?
  • Ao se acreditar que a IA Forte poderá se concretizar, será necessário tecer – ou não – um limite entre a conhecida “Declaração dos Direitos Humanos” e uma possível, provável – necessária? – “Declaração dos Direitos das Entidades Inteligentes Artificiais”?
  • Qual complexidade seria necessária a uma entidade pensante de modo que ela desenvolvesse uma identidade? Seria correto afirmar que neste final da segunda década do século XXI, identidade é um atributo exclusivo do Homo sapiens?

 

Consideração final

Citar uma entidade elementar que escolhe palavras que se relacionam no seio de um determinado texto (potencialmente utilizando regras estatísticas pré-estipuladas. Vide nota anterior sobre o SOBEK) no mesmo contexto de um algoritmo que auxilia o reconhecimento de voz, ou que realiza apoio ao diagnóstico de uma doença, ou mesmo um que decide uma rota de trânsito, ou que joga cartas, ou que joga xadrez ou GO, não conduz a uma generalização perigosa?

Em tempo, imaginando que ainda seja verdadeira a expectativa de que a Ciência se faz pelo franco e aberto debate de ideias, desde já agradeço pelas opiniões dos leitores, que podem ser remetidas para o endereço de e-mail odeciosouza@gmail.com.

 

Referências

Aulete. “o dicionário da língua portuguesa na internet”. disponível em http://www.aulete.com.br.

Bispo, Danilo Gustavo. “A Teoria da Computação de Alan Turing”. Tese de Doutoramento em História da Ciência. Pontifícia Universidade Católica de São Paulo. 2018.

Bostrom, Nick & Eliezer Yudkowsky. “A ética da inteligência artificial”. Instituto Ética, Racionalidade e Futuro da Humanidade. 2011. Disponível em http://ierfh.org/br/post/a-etica-da-inteligencia-artificial/. Acessado em 24 de agosto de 2019.

(leituras complementares sugeridas pelo autor):

Bostrom, n. 2004. “The future of human evolution”, em death and anti-death: two hundred years after Kant, fifty years after Turing, ed. Charles Tandy (Palo Alto, Califórnia: ria university press). Este trabalho explora algumas dinâmicas evolutivas que poderiam levar a uma população de uploads para desenvolver em direções distópicas.

Yudkowsky, e. 2008a. “Artificial Intelligence as a positive and negative factor in global risk”, in Bostrom and Cirkovic (eds.), pp. 308-345. Uma introdução aos riscos e desafios apresentados pela possibilidade de melhorar a auto recursividade das máquinas superinteligentes.

Wendell, w. 2008. “Moral machines: teaching robots right from wrong” (Oxford University press, 2008). Uma pesquisa global de desenvolvimento recente.

Cabral, Alberto. “Sobrevoando a relação entre inteligência artificial e games”. Blog TransObjetO. Disponível em https://transobjeto.wordpress.com/2019/09/20/sobrevoando-a-relacao-entre-ia-e-games/ #more-2193. Acessado em 21 de setembro de 2019.

Camargo, Eduardo. “Os olhos do robô.” Blog TransObjetO. Disponível em https://transobjeto.wordpress.com/2019/10/21/os-olhos-do-robo/#more-2202. Acessado em 22 de outubro de 2019.

Carnielli, Walter. “Os axiomas de Deus, o maligno e a inteligência artificial.” Disponível em https://outline.com/f47dw8. Acessado em 21 de agosto de 2019.

La Taille, Yves de. “moral e ética no mundo contemporâneo”. Revista USP. São Paulo. n. 110 p.29-42, julho/agosto/setembro 2016.

Ferraz, Ana Paula do Carmo Marcheti & Renato Vairo Belhot. “Taxonomia de Bloom: revisão teórica e apresentação das adequações do instrumento para definição de objetivos instrucionais.” Gest. Prod., São Carlos, v. 17, n. 2, p. 421-431, 2010.

Harari, Yuval Noah. Sapiens: uma breve história da humanidade. 20ª. edição. Tradução Janaína Marcoantonio. Porto Alegre: l&pm, 2017.

Negnevitsky, Michael. Artificial Intelligence: A Guide to Intelligent Systems. Second edition. Essex, England: Pearson, 2005.

O Estado de São Paulo. Disponível em https://internacional.estadao.com.br/noticias/nytiw,bicicleta-autonoma -inteligencia-Artificial,70002962491?utm_source=estadao%3afacebook&utm_medium=link &fbclid=iwar1vilnl7_4ndejot-ikq2vp4hewoj37ogte4suzjdw5ge3ustaqco1ztyw. Acessado em 22 de agosto de 2019. & https://www.nature.com/articles/s41586-019-1424-8

Silvestre, Paulo. “Até onde podemos ser iludidos pela inteligência artificial.” Sociotramas. Disponível em https://sociotramas.wordpress.com/2019/06/10/ate-onde-podemos-ser-iludidos-pela- inteligencia-artificial/?fbclid=iwar2drxfwbfp-wbs90ak-76i5uhd4kqibzxnufj- bpvm5vh7bluvmp7fd_fk. acessado em 01 de julho de 2019.

Souza, Odécio. “CesimaDigital: uma ferramenta para a história da ciência.” Tese de Doutorado em História da Ciência, Pontifícia Universidade Católica de São Paulo, 2019.

Russell, Stuart & Peter Norvig. Artificial Intelligence: A Modern Approach. 3rd Edition. New York: Prentice Hall, 2010.

Times, the New York. “Artificial intelligence hits the barrier of meaning”, New York Times Opinion, November 7, 2018, by Melanie Mitchell. Disponível em https://medium.com/new-york-times-opinion/artificial-intelligence-hits-the-barrier-of-meaning-56274e7734b6. Acessado em 01 de julho de 2019.

Ética & Moral

Barros Filho, Clovis de
https://www.youtube.com/watch?v=wuw71uiyaqo
https://www.youtube.com/watch?v=9_ynlpxkllu
https://www.youtube.com/watch?v=uftpyv8ntq4&list=pljulubi-ifsdrbfuianvmblk-xn9wiraz&index=59&t=2010s

Cortella, Mario Sergio
https://www.youtube.com/watch?v=gtcclwpyioy
https://www.youtube.com/watch?v=zvyw3yga-0u

Karnal, Leandro
https://www.youtube.com/watch?v=fgzxene2apq
https://www.youtube.com/watch?v=t9zj6fmrv2w
https://www.youtube.com/watch?v=dcdywzuhumu
https://www.youtube.com/watch?v=lcuutvasli8

Karnal, Leandro e Luis Felipe Pondé
https://www.youtube.com/watch?v=rivj8gpeafu

______

[1] Um “App”, modernamente, é como se conhece um componente de software, um programa de computador, um algoritmo computacional.

[2] “A abordagem que considera que máquinas podem agir como se fossem inteligentes é chamada pelos filósofos de hipótese da IA Fraca, e a abordagem que considera que ao agir inteligentemente as máquinas possam de fato estar pensando (e não apenas simulando pensamento) é chamada de hipótese da IA Forte” (Russel & Norvig, 2010, p. 1020, tradução nossa).

[3] Estou utilizando aqui a descrição de Negnevitsky em Artificial Intelligence. As designações (ou a classificação) por ele utilizadas para agentes em IA Fraca (tradução nossa) podem ser verificadas nas páginas referenciadas: rule-based expert system (sistema especialista baseado em regras), 25-54; fuzzy expert systems (sistemas especialistas difusos), 87-130; frame-based expert systems (sistemas especialistas baseados em cenários), 131-164; artificial neural networks (redes neurais artificiais), 165-218; genetic algorithms (algoritmos genéticos), 219-58.

[4] Grifo nosso. A dessemelhança aludida é o argumento. Mantive a oração completa, ainda que distorcendo ligeiramente o propósito da minha argumentação, pela importância de seu enunciado.

[5] A respeito do Jeopardy, vide https://gizmodo.uol.com.br/computador-da-ibm-vence-de-lavada-dois-cerebros-humanos-em-jogo-de-conhecimentos-gerais/, ou de outra aplicação do Watson que auxilia diagnósticos médicos https://www.ibm.com/developerworks/br/industry/library/ind-watson/index.html. Acessados em 21 de setembro de 2019.

[6] Aulete, s.vv. “taxionomia”, “taxonomia” se referem a seres vivos, aqui aplicado a algo que se pode enxergar como tal.

[7] Sobre a relação entre os ludistas e os tamancos, vide https://pt.wikipedia.org/wiki/sabotagem; sobre os ludistas, https://www.suapesquisa.com/industrial/ludismo.htm; mais amplamente sobre o ludismo, https://pt.wikipedia.org/wiki/ludismo. Acessados em 21 de setembro de 2019.

[8] A respeito do GEMS-TIDD, vide http://blog.pucsp.br/gems/sobre & http://dgp.cnpq.br/dgp/espelhogrupo/6175707291827327; sobre a apresentação, https://web.facebook.com/groups/216607311811765/, post de 06 de setembro de 2019. Acessados em 21 de setembro de 2019.

[9] O discurso habitual, frequentemente denominado “politicamente correto”, nos faria apontar que o Homo sapiens “habitualmente” tem certas capacidades. Demandarei escusas dos mais sensíveis neste campo. Em não se tratando de um texto em Sociologia, estou preocupado com a regra, não com a exceção, por mais importante que seja a alguns.

[10] Em Souza (2019) apresento uma análise de como tal característica é alcançada. Detalhes específicos sobre o SOBEK podem ser localizados em http://professor.ufrgs.br/eliseo/pages/sobek-project. Acessado em 28 de outubro de 2019.

[11] https://pt.wikipedia.org/wiki/Arquitetura_de_von_Neumann. Acessado em 21 de setembro de 2019.

[12] Bispo (2018) oferece uma detalhada análise desse trabalho.

[13] Vide nas Referências, após a entrada denominada “Ética & Moral”, as fontes das quais extraí tais ideias.

Uma resposta em “Alguns questionamentos que se pretendem inteligentes sobre a artificialidade

  1. Pingback: Inteligência artificial : uma implementação com base em Peirce | TransObjetO

Deixe um comentário