Nova ferramenta vai tornar inteligência artificial mais compreensível, transparente e confiável
O projeto TRUST-AI, coordenado pelo Instituto de Engenharia de Sistemas e Computadores, Tecnologia e Ciência (INESC TEC) procura explicar os sistemas de IA, tornando-os mais transparentes e confiáveis.
A inteligência artificial (IA) está cada vez mais na base de processos de tomada de decisão. Mas será que podemos confiar naquilo que os modelos matemáticos nos estão a dizer para fazer? Porque é que um médico pode confiar num sistema que lhe indica a altura certa para operar um tumor raro? Como é que um retalhista pode ter a certeza que o algoritmo não favoreceu um fornecedor em detrimento de um concorrente? E o consumidor, não terá o direito de saber como é que os modelos de previsão de consumo de energia decidem as tarifas que paga?
O projeto TRUST-AI, coordenado pelo Instituto de Engenharia de Sistemas e Computadores, Tecnologia e Ciência (INESC TEC) procura explicar os sistemas de IA, tornando-os mais transparentes e confiáveis.
“À medida que as técnicas de inteligência artificial influenciam cada vez mais as decisões, o seu raciocínio passa por etapas demasiado abstratas e complexas para serem compreendidas pelos utilizadores. Estamos a falar de ‘caixas pretas’, que encontram soluções factualmente excelentes, sem saberem explicar como as conseguem. Isso levanta questões éticas à medida que a IA orienta mais e mais escolhas. Entender o porquê de determinada escolha dá confiança e ajuda a melhorar o processo de decisão. Este projeto vai desenvolver soluções de IA que sejam mais transparentes, justas e explicáveis e, portanto, mais aceitáveis”, afirma Gonçalo Figueira, investigador do INESC TEC e coordenador do projeto.
A abordagem consiste em colocar IA e humanos a trabalhar em conjunto para encontrar melhores soluções (ou seja, modelos que são eficazes, compreensíveis e generalizáveis), através da utilização de modelos simbólicos e algoritmos de aprendizagem explicáveis pelo projeto e pela adoção de um processo de aprendizagem empírico orientado, centrado no ser humano, que integra cognição, aprendizagem de máquina e interação homem-máquina.
O resultado será uma ferramenta transparente, inteligente, confiável e imparcial, aplicada em três casos de estudo: na área da saúde (tratamento de tumores), no retalho online (para selecionar horários de entrega de encomendas) e na energia (para apoiar previsões de procura em edifícios). Mas o projeto pode ser aplicável a outros sectores: bancário, seguros, indústria e administração pública.
Além do INESC TEC (coordenador) o projeto TRUST-AI (Transparent, Reliableand Unbiased Smart Tool for AI) conta com a participação portuguesa da LTPLabs e de mais cinco parceiros, de cinco países diferentes: Tartu Ulikool (Estónia), Institut National De Recherche Eninformatique Et Automatique (França), Stichting Nederlandse Wetenschappelijk Onderzoek Instituten (Holanda), Applied Industrial Technologies (Chipre) e TAZI Bilisim Teknolojileri A.S. (Turquia).
O projeto é financiado em 4 milhões de euros pelo programa de investigação e inovação da União Europeia, Horizonte 2020, ao abrigo do acordo nº 952060.