Ciência

Nova ferramenta vai tornar inteligência artificial mais compreensível, transparente e confiável

O projeto TRUST-AI, coordenado pelo Instituto de Engenharia de Sistemas e Computadores, Tecnologia e Ciência (INESC TEC) procura explicar os sistemas de IA, tornando-os mais transparentes e confiáveis. 

A inteligência artificial (IA) está cada vez mais na base de processos de tomada de decisão. Mas será que podemos confiar naquilo que os modelos matemáticos nos estão a dizer para fazer? Porque é que um médico pode confiar num sistema que lhe indica a altura certa para operar um tumor raro? Como é que um retalhista pode ter a certeza que o algoritmo não favoreceu um fornecedor em detrimento de um concorrente? E o consumidor, não terá o direito de saber como é que os modelos de previsão de consumo de energia decidem as tarifas que paga?  

O projeto TRUST-AI, coordenado pelo Instituto de Engenharia de Sistemas e Computadores, Tecnologia e Ciência (INESC TEC) procura explicar os sistemas de IA, tornando-os mais transparentes e confiáveis. 

“À medida que as técnicas de inteligência artificial influenciam cada vez mais as decisões, o seu raciocínio passa por etapas demasiado abstratas e complexas para serem compreendidas pelos utilizadores. Estamos a falar de ‘caixas pretas’, que encontram soluções factualmente excelentes, sem saberem explicar como as conseguem. Isso levanta questões éticas à medida que a IA orienta mais e mais escolhas. Entender o porquê de determinada escolha dá confiança e ajuda a melhorar o processo de decisão. Este projeto vai desenvolver soluções de IA que sejam mais transparentes, justas e explicáveis e, portanto, mais aceitáveis”, afirma Gonçalo Figueira, investigador do INESC TEC e coordenador do projeto. 

A abordagem consiste em colocar IA e humanos a trabalhar em conjunto para encontrar melhores soluções (ou seja, modelos que são eficazes, compreensíveis e generalizáveis), através da utilização de modelos simbólicos e algoritmos de aprendizagem explicáveis pelo projeto e pela adoção de um processo de aprendizagem empírico orientado, centrado no ser humano, que integra cognição, aprendizagem de máquina e interação homem-máquina. 

O resultado será uma ferramenta transparente, inteligente, confiável e imparcial, aplicada em três casos de estudo: na área da saúde (tratamento de tumores), no retalho online (para selecionar horários de entrega de encomendas) e na energia (para apoiar previsões de procura em edifícios). Mas o projeto pode ser aplicável a outros sectores: bancário, seguros, indústria e administração pública. 

Além do INESC TEC (coordenador) o projeto TRUST-AI (Transparent, Reliableand Unbiased Smart Tool for AI) conta com a participação portuguesa da LTPLabs e de mais cinco parceiros, de cinco países diferentes: Tartu Ulikool (Estónia), Institut National De Recherche Eninformatique Et Automatique (França), Stichting Nederlandse Wetenschappelijk Onderzoek Instituten (Holanda), Applied Industrial Technologies (Chipre) e TAZI Bilisim Teknolojileri A.S. (Turquia).  

O projeto é financiado em 4 milhões de euros pelo programa de investigação e inovação da União Europeia, Horizonte 2020, ao abrigo do acordo nº 952060. 

Em destaque

Subir