A inteligência artificial (IA) é uma ferramenta incrível. Foi desenvolvida nas últimas décadas e o seu lugar nas nossas vidas, que já é omnipresente, irá inevitavelmente crescer. Mais importante ainda, somos capazes, através da regulamentação, evitar os seus abusos (como as notícias falsas e a manipulação de seres humanos). De facto, seja qual for o futuro da IA, temos o poder de escolher – sabiamente – utilizá-la para o bem comum.
Em poucas palavras, esta é a mensagem que fica da série de três eventos Ar que tiveram lugar na Fundação Champalimaud (FC), sobre o tema "Past, Present and Future of AI ", ao longo dos últimos meses.
O passado e o presente da IA foram debatidos durante os dois primeiros eventos da série (ver passado & presente).
O último evento, que teve lugar em Maio, foi intitulado "Shaping Tomorrow's Intelligence". Três oradores, convidados por Sabine Renninger e Scott Rennie – neurocientistas da FC, que tiveram o papel de "directores criativos", moldando o evento e acrescentando contexto –, apresentaram a sua visão do futuro da IA e compararam a natureza da inteligência animal/humana com a da inteligência artificial.
O debate foi aberto por Rennie, que enumerou algumas das realizações conseguidas pela IA: "O GPT-4 passou recentemente no exame da Ordem dos Advogados e tornou-se tão boa ou melhor que um radiologista no rastreio do cancro". No entanto, nem todas as utilizações da IA são para o bem comum: se a IA está a ser usada para detectar asteróides perigosos, também está a ser utilizada "para definir alvos na destruição em curso de Gaza", disse.
"Mas o futuro é imprevisível", acrescentou Rennie, "e as grandes empresas estão a vislumbrar, ao mesmo tempo, tanto o melhor como o pior na IA. Apresentam este argumento para que a IA pareça inevitável e fora do nosso controlo. Nada na IA é inevitável", sublinhou.
"O que pretendemos da IA no futuro, se é que queremos que se torne mais parecida com a nossa inteligência?", questionou Rennie. "Queremos sistemas de IA apenas para fazer melhores previsões ou sistemas de IA que ajudem a explorar as nossas diferenças para nos compreendermos melhor?" A pergunta de hoje à noite é, resumiu: "Como é que devemos moldar a IA de amanhã?"
É possível prever o futuro da IA?
O primeiro orador foi Luís Correia, professor do Departamento de Informática da Faculdade de Ciências da Universidade de Lisboa, que se interessa pela vida artificial computacional, os robôs autónomos, a auto-organização em sistemas multi-agentes e a aprendizagem automática.
"Não vou fazer previsões", disse Correia desde o início. Mas sublinhou a necessidade de os humanos "escolherem entre viverem felizes para sempre ou tomarem medidas contra The Matrix" – por outras palavras, a necessidade de escolhermos seriamente, e não apenas por diversão, o que queremos da IA.
Quanto à IA versus inteligência natural, Correia afirmou que, enquanto a primeira foi desenvolvida recentemente e se limita ao raciocínio simbólico, a segunda levou milhares de milhões de anos de evolução e precisou de capacidades sensório-motoras para chegar onde está hoje. "Todas as formas de inteligência natural residem num corpo, num organismo, o que não acontece com a IA", acrescentou.
Correia perguntou então, em jeito de teaser: "Irá a IA ser incorporada, “encarnada” numa rede [como a Internet] no futuro próximo? Tornar-se-á uma inteligência em rede? Deixou a resposta em aberto.
Em contrapartida, podemos perguntar-nos: poderá haver verdadeira inteligência (e verdadeira compreensão, e verdadeira consciência) sem um corpo? Ou será que a IA continuará sempre a ser uma mera (mas poderosa) simulação de inteligência?
Para Correia, o melhor futuro para a IA será algo intermédio: uma colaboração entre a IA e a inteligência natural. "A colaboração é actualmente um dos aspectos mais interessantes e positivos da utilização da IA", salientou. "A IA é uma ferramenta que capacita os humanos para resolver grandes problemas mais rapidamente".
Mas a IA também "amplifica as coisas más da nossa sociedade", advertiu Correia: "actividades não éticas, notícias falsas, imagens falsas...". E amplifica os nossos próprios preconceitos através dos conjuntos de dados tendenciosos que lhe fornecemos para a treinar.
O maior risco da IA é a sua utilização sem regulamentação", concluiu Correia, voltando ao que tinha dito no início: "Não devemos utilizá-la apenas para nos divertirmos".
O segundo orador foi Kevin Mitchell, Professor de Genética e Neurociências no Trinity College de Dublin. A sua investigação actual incide sobre a biologia da capacidade de agir (agency) e a natureza da informação genética e neural.
Podemos dar uma "alma" à IA?
Mitchell começou por dizer que a visão que algumas pessoas têm da IA vai ao ponto de dizerem: "Dêem à IA todo o conhecimento do mundo e ela adquirirá uma 'alma'" – ou seja, tornar-se-á uma entidade actuante, adquirirá agência. E depois questionou este ponto de vista. "Quero argumentar que esperar que a agência apareça do nada é exatamente o oposto da evolução natural. A agência e a autonomia vêm primeiro; a inteligência evolui mais tarde, para assegurar a sobrevivência", disse. Assim, segundo ele, na questão da inteligência natural versus inteligência artificial, nada poderia ser mais distante, mais diferente do que estas duas formas de inteligência.
"A evolução formou organismos que compreendiam o mundo e agiam sobre ele, testando-o e explorando-o", continuou Mitchell. "Organismos que não se limitavam a ficar sentados como máquinas de IA". E acrescentou que, enquanto os bebés são muito bons a interagir com o mundo, os LLM (Large Language Models, como o Chat-GPT) não são. "Actualmente, a IA reside no raciocínio lógico e da linguagem, mas não é aí que reside a maior parte da inteligência natural".
Poderemos criar agentes artificiais autónomos no futuro? "Acredito que sim, mas será que devemos fazê-lo?", respondeu Mitchell. Se o fizermos, isso levantará questões de responsabilidade ética e moral. "Quem será responsável pelo comportamento destes novos agentes morais?", questionou. "O que é que as empresas [que fabricaram estas máquinas de IA] vão dizer sobre quem é responsável pelo mal que a IA possa vir a fazer? Poderão afirmar que não são responsáveis?
Pode uma IA tornar-se uma entidade moral?
A terceira oradora da noite foi Pooja Viswanathan, cientista e escritora, ceramista das horas vagas, actualmente a viver em Lisboa. Doutorada e mestre em neurociências pela Universidade de Tubingen, na Alemanha, interessa-se pelo comportamento inteligente dos primatas e pelas redes neuronais.
"O meu argumento é que devemos pensar na IA num quadro de considerações morais", declarou Viswanathan. "Ora, a IA pode ser qualificada como agente moral?", perguntou. "Não pode", respondeu.
As máquinas de IA podem ser consideradas ‘pacientes’ morais?", perguntou a seguir. Por outras palavras, será que podemos estender as nossas considerações éticas à IA da mesma forma que as estendemos aos seres humanos e aos animais? Podemos sentir obrigações morais em relação à IA, tal como sentimos em relação aos animais indefesos e em sofrimento?
A IA não parece satisfazer os critérios que utilizamos para os animais, respondeu Viswanathan – tais como a necessidade de reprodução, a capacidade de sofrer, a complexidade biológica, a inteligência, a semelhança genética, as crenças sobre o futuro, a sociabilidade, a cultura, as normas.
"A IA é social?", perguntou a seguir Viswanathan. Não, respondeu: "A IA não forma grupos sociais". "A IA tem crenças sobre o futuro? Os animais têm – fazem reservas de alimentos - mas não há muitas indicações de que seja o caso da IA", retorquiu. "A IA é inteligente? Os polvos e os corvos são inteligentes, os golfinhos são criativos – mas a IA não é", salientou. "A IA é capaz de sentir? Os animais sentem dor, sofrem lesões que podem ser tratadas. A IA? Não. "É evidente que a IA não pode ser considerada um paciente moral, concluiu.
Isto levou Viswanathan a dizer: "Não participámos na evolução dos animais, mas participámos na evolução da IA. Talvez não devemos criar uma IA encarnada e com sentimentos e atribuir-lhe responsabilidades". Porquê? "Porque nós somos os agentes morais finais, mesmo se a IA fizer coisas moralmente questionáveis". Mais uma vez, o que está aqui em causa é a necessidade de escolher sábia e cuidadosamente o tipo de IA que queremos para o futuro.
A noite terminou com um debate entre os oradores, conduzido por Renninger e moldado pelas perguntas e preocupações apresentadas pelo público. Alguns exemplos dos temas abordados: "Acha que a IA vai adquirir intuição?", perguntou Renninger. Viswanathan: "É provável"; Mitchell: "O raciocínio da IA será mesmo raciocínio?".
Outra questão: "Podemos criar um teste para detectar o momento em que as máquinas de IA conseguem raciocinar?" Mitchell novamente: "Criámos algo que não compreendemos". Correia: "Temos de olhar para a IA como um conjunto de possibilidades de novas formas corpóreas".
Foram também lançadas várias outras perguntas desafiantes. De facto, todo o evento "teve como objetivo estimular o pensamento crítico sobre os desafios colocados por alguns dos desenvolvimentos da IA, bem como discussões mais inclusivas sobre a forma como queremos que a IA esteja presente nas vidas futuras", afirmou Renninger.
Texto por Ana Gerschenfled, Health & Science Writer da Fundação Champalimaud.