O filme tem por título “My word” (a minha palavra) e foi gerado por um software de inteligência artificial (IA) que cria imagens a partir de texto escrito. A realizadora, Carmen Puche Morè, avisa logo no início deste curto vídeo que o software “espelha os vieses e as ideias erradas presentes nos dados que serviram para o treinar”.
E passa a demonstrar: “I am a doctor”: as imagens sintéticas mostram a cara de um homem jovem e branco. “I am a woman”: – o homem metamorfoseia-se em jovem mulher branca. “I am not white”: muda a cor da pele. “I am not young”: rugas aparecem na face, as feições tornam-se menos definidas, a cor do cabelo muda para branco.
Os viezes contidos nos dados utilizados para treinar os algoritmos de IA apresentam problemas éticos flagrantes. “O chatGPT [o mais conhecido dos softwares de geração de textos] representa essencialmente o ponto de vista do mundo ocidental”, diria mais tarde, na sua intervenção, Pedro Conceição, Director do Gabinete do Relatório de Desenvolvimento Humano do Programa das Nações Unidas para o Desenvolvimento (PNUD).
Esta perfeita ilustração dos nossos próprios vieses – se tivéssemos de imaginar o aspecto de uma pessoa a partir da sua descrição verbal, muito provavelmente reagiríamos como o software – foi a peça de abertura da primeira conferência do Grupo Bridge AI (Pontes para a IA), que decorreu no passado fim-de-semana na Fundação Champalimaud, em Lisboa. As considerações éticas em torno da IA foram obviamente uma das questões abordadas durante este encontro.
O Bridge AI é um projecto coordenado pelo Instituto de Engenharia de Sistemas e Computadores – Investigação e Desenvolvimento (Inesc-ID), em colaboração com a Fundação Champalimaud e a Unbabel, empresa portuguesa que desenvolveu uma plataforma de tradução que utiliza IA. O projecto foi pensado por três jovens gestores de ciência – António Novais e Nuno André, da Unbabel, e Joana Lamego, da Fundação Champalimaud. É coordenado por Helena Moniz, do INESC-ID.
O intuito é colocar Portugal na vanguarda da implementação do European AI Act, texto recentemente aprovado pelo Parlamento Europeu, mostrando ao mesmo tempo que isso é compatível com a inovação tecnológica.
O AI ACT é o primeiro regulamento abrangente sobre a IA no mundo. Não só as empresas que fornecem IA, mas também as que a utilizam, estarão sujeitas a este regulamento.
É certo que a IA já é em parte regulada pela lei geral – um crime, quando cometido com IA, será sempre um crime. Mas é necessária uma lei específica da IA, porque esta é a primeira vez o que se está a regulamentar o comportamento de algo que não é humano.
Enviesamento nos cuidados de saúde é substancial, a quantidade de energia necessária para treinar grandes modelos linguísticos é gigantesca, tem havido um aumento do plágio e da violação dos direitos de autor, e os deepfakes, essas imagens realísticas construídas de raiz por computador, espalham desinformação e notícias falsas, aproveitando-se da falta de “literacia em IA” das pessoas. A IA pode ser uma fantástica ferramenta quando utilizada para o bem das pessoas e da sociedade em geral, mas também pode exacerbar graves problemas muito humanos.
“O texto do AI Act é muito difícil de compreender e precisa de juristas habilitados”, disse Leonor Beleza, Presidente da Fundação Champalimaud. “O objectivo do Bridge AI é ajudar a compreender o AI Act no contexto português.”
Quanto aos principais objectivos deste primeiro certame, eram, assumidamente, “discutir as oportunidades e os riscos da IA para a inovação, analisar considerações éticas na regulação da IA e definir estratégias para aumentar a literacia em IA em Portugal”, segundo um comunicado. A conferência juntou decisores políticos, especialistas nacionais e internacionais, académicos, juristas, psicólogos, etc., numa série de debates e palestras.
Ao longo da tarde, cinco grupos de trabalho multidisciplinares convocados pelo Bridge AI apresentaram as suas recomendações preliminares em cinco áreas de interesse: “Instrumentos de avaliação de risco ético”, “Ética de IA nos processos de regulamentação”, “Implementação do AI ACT”, “Formação Avançada e Literacia em IA” e “Iniciativas fora da União Europeia”.
De destacar entre as recomendações dos peritos: a criação de uma ferramenta de avaliação dos riscos da IA, incluindo os riscos éticos, concreta e acessível a qualquer pessoa criadora ou utilizadora de IA; a criação de “red teams” (equipas vermelhas) de IA, isto é de grupos de especialistas, internos ou externos às entidades, capazes de testar a segurança dos sistemas de IA e em particular a sua capacidade de proteger os dados dos utilizadores; a realização de um inquérito nacional sobre literacia em IA; e a criação das “zonas livres tecnológicas” – espaços em que seja possível testar as tecnologias de IA.
Todos concordaram que a IA, para além de “ser boa para o negócio”, pode e deve ser útil e benéfica para as pessoas – sempre com seres humanos aos comandos. Aliás, como que para serenar aqueles que pensam que irão perder o emprego ao serem substituídos por IA, Pedro Conceição, do PNUD, perguntara à assistência: “Sabem qual é a única ocupação que desapareceu devido a mudanças tecnológicas? A de operador de elevadores. Todas as outras ainda existem mas foram transformadas. Devemos recorrer a humanos ou a máquinas? A escolha é nossa.”
Text de Ana Gerschenfeld, Health & Science Writer da Fundação Champalimaud.