10 Novembro 2022

Consórcio português vai receber 78 milhões de euros do Programa de Recuperação e Resiliência para desenvolver IA “responsável”

O compromisso com a IA responsável pode ser visto como um juramento hipocrático para a inteligência artificial – uma promessa para “não causar danos com a IA”. Precisam-se tecnologias, regulação e princípios básicos para tornar a IA responsável – isto é, para fazer com que os seus algoritmos sejam tão éticos quanto possível, promovendo assim a confiança da opinião pública na IA. Portugal quer estar na vanguarda deste empreendimento.

Consortium of Portuguese startups and research centres to receive 78 million-euro funding from the Programa de Recuperação e Resiliência to develop “responsible” AI

Por cada argumento a favor da IA enquanto elemento essencial, promissor e transformador de quase todas as indústrias, elevam-se vozes apreensivas em relação a esta tecnologia. Muitos desconfiam da IA, alegando que as máquinas inteligentes irão um dia dominar a espécie humana. Mas enquanto essa é uma possibilidade remota, os danos que podem ser causados às pessoas (embora na maioria sem intenção) pelos algoritmos de aprendizagem automática (em inglês, deep learning), no mundo real, são bem tangíveis. Os exemplos não faltam.

Considere-se o caso do software de IA utilizado pelas empresas para contratar recursos humanos. Se os dados do historial de contratação de uma empresa, que são utilizados para “treinar” o algoritmo, contiverem um viés de género, ou um viés racial (tornando implícito, por exemplo, que só os homens podem ser executivos, o que apenas os brancos são elegíveis para cargos de topo), o algoritmo, uma vez treinado, será igualmente enviesado em relação às mulheres ou àqueles que não têm a pele branca.

“Temos visto a Amazon retirar um algoritmo de recrutamento devido ao seu viés de género, a Google ser criticada pelo seu preenchimento automático (autocomplete) racista; e tanto a IBM como a Microsoft embaraçadas por algoritmos de reconhecimento de rostos que se revelaram melhores a reconhecer homens do que mulheres, e pessoas brancas do que pessoas com outros tons de pele”, lê-se numa notícia da revista Wired, publicada há uns anos a propósito do viés que afligia então o cartão de crédito Apple Card. O escândalo estalou quando se percebeu que o algoritmo por trás desse cartão atribuia plafons de crédito muito mais elevados aos homens do que às mulheres.    

Setenta e oito milhões de euros para começar a resolver o problema

Este mês, por ocasião do Web Summit, que decorreu em Lisboa de 1 a 4 de Novembro, o “Consórcio para a IA Responsável”, liderado pela Unbabel – empresa fundada por portugueses e especializada em IA de tradução automática –, anunciou que o Plano de Recuperação e Resiliência português ir-lhes-ia atribuir um financiamento de quase 80 milhões de euros. O objectivo é “posicionar Portugal como um líder global em tecnologias,
princípios e regulação em IA responsável”, segundo um comunicado emitido pela Unbabel. 

O consórcio, segundo o mesmo documento, é composto por 11 startups (Unbabel, Feedzai, Sword Health, Apres, Automaise, Emotai, NeuralShift, Priberam, Visor.ai, YData e YooniK), incluindo dois unicórnios (startups que valem mais de mil milhões dólares), oito centros de investigação de Lisboa, Porto e Coimbra (Fundação Champalimaud, IST, INESC-ID, IST-ID/ISR, IT, FEUP, Fraunhofer Portugal AICOS e CISUC), uma sociedade de advogados (Vieira de Almeida) e ainda cinco líderes de indústria em Ciências da Vida, Turismo e Retalho (BIAL, Centro Hospitalar de São João, Luz Saúde, Grupo Pestana e SONAE).

O representante da Fundação Champalimaud no consórcio é Joe Paton, director do Programa de Neurociências da Fundação Champalimaud.

Apelidado de “Centro para a IA Responsável”, o consórcio afirmou que irá criar mais de 210 postos de trabalho altamente qualificados e atribuir 132 graus académicos avançados (mestrados e doutoramentos). Também irá desenvolver uma vintena de produtos até 2030, ainda segundo o comunicado.

Num outro documento, Paulo Dimas, Vice-Presidente de Inovação da Unbabel, explica que os três pilares de base da IA responsável são a equidade, a explicabilidade e a sustentabilidade.  

“A equidade”, escreve, “foca-se principalmente na redução dos enviesamentos e das suas consequências negativas – tanto nas máquinas como na sociedade em geral. (...) A explicabilidade tem a ver com a transparência relativamente ao funcionamento da IA. (...) Por vezes, nem os próprios engenheiros que criaram um modelo de IA conseguem explicar o que está a acontecer dentro do sistema quando este fornece um determinado output. (...) A sustentabilidade diz respeito ao facto de lidar com as implicações ambientais do desenvolvimento da IA”, muito ávida em energia.

Pelo seu lado, o comunicado acima referido salienta também que “as tecnologias de IA responsável irão ainda permitir resolver desafios até agora impossíveis para a IA, dados os riscos envolvidos. Um exemplo é a tradução automática de conteúdos clínicos, onde um erro de tradução pode colocar em risco vidas humanas. (...) Este será um dos 21 produtos inovadores de IA que irão ser desenvolvidos pelo consórcio”.

Um pólo de IA está a nascer na Fundação Champalimaud

Mesmo ao lado da Fundação Champalimaud (FC), está a nascer um novo projecto: o Ocean Campus. Como se pode ler no site da FC, o projecto irá reunir a FC e a Fundação Calouste Gulbenkian num “cluster de atividades ligadas à ciência, tecnologia, economia e inovação”.

Em particular, lê-se ainda, “o espaço [do campus atribuído à] FC destina-se à criação de um centro dedicado à IA, juntamente com uma incubadora científica, que inclui uma central de computação e armazenamento de dados, laboratórios experimentais, instalações para desenvolvimento de hardware, espaços para cursos avançados de formação, áreas para startups e zonas para parcerias comerciais, de serviços ou industriais”. 

“A Fundação Champalimaud quer tornar-se líder nas terapêuticas digitais, aliando a IA, as tecnologias imersivas, o conhecimento vindo das neurociências e da clínica, para melhorar a saúde humana através de software e de hardware especializado”, diz Paton, neurocientista e também um dos responsáveis pelo Ocean Campus do lado da FC. “Trata-se de uma nova área, com imenso potencial, e as nossas capacidades existentes em neurociências e na prática clínica nos posicionam na perfeição para este tipo de inovação, alicerçado na investigação fundamental que será indispensável.” Um dos objectivos é o desenvolvimento de IA que reflita a investigação que está a ser feita em neurociências e em biomedicina, dois campos que têm muito a beneficiar com a IA.

A criação do Centro para a IA Responsável, do qual a FC é parceiro-fundador, não podia ser mais oportuna.  
 

By Ana Gerschenfeld, Health&Science Writer of the Champalimaud Foundation.
Loading
Por favor aguarde...