O projeto TRUST-AI, coordenado pelo Instituto de Engenharia de Sistemas e Computadores, Tecnologia e Ciência (INESC TEC) procura explicar os sistemas de IA, tornando-os mais transparentes e confiáveis.
A inteligência artificial (IA) está cada vez mais na base de processos de tomada de decisão. Mas será que podemos confiar naquilo que os modelos matemáticos nos estão a dizer para fazer? Porque é que um médico pode confiar num sistema que lhe indica a altura certa para operar um tumor raro? Como é que um retalhista pode ter a certeza que o algoritmo não favoreceu um fornecedor em detrimento de um concorrente? E o consumidor, não terá o direito de saber como é que os modelos de previsão de consumo de energia decidem as tarifas que paga?
O projeto TRUST-AI, coordenado pelo Instituto de Engenharia de Sistemas e Computadores, Tecnologia e Ciência (INESC TEC) procura explicar os sistemas de IA, tornando-os mais transparentes e confiáveis.
“À medida que as técnicas de inteligência artificial influenciam cada vez mais as decisões, o seu raciocínio passa por etapas demasiado abstratas e complexas para serem compreendidas pelos utilizadores. Estamos a falar de ‘caixas pretas’, que encontram soluções factualmente excelentes, sem saberem explicar como as conseguem. Isso levanta questões éticas à medida que a IA orienta mais e mais escolhas. Entender o porquê de determinada escolha dá confiança e ajuda a melhorar o processo de decisão. Este projeto vai desenvolver soluções de IA que sejam mais transparentes, justas e explicáveis e, portanto, mais aceitáveis”, afirma Gonçalo Figueira, investigador do INESC TEC e coordenador do projeto.
A abordagem consiste em colocar IA e humanos a trabalhar em conjunto para encontrar melhores soluções (ou seja, modelos que são eficazes, compreensíveis e generalizáveis), através da utilização de modelos simbólicos e algoritmos de aprendizagem explicáveis pelo projeto e pela adoção de um processo de aprendizagem empírico orientado, centrado no ser humano, que integra cognição, aprendizagem de máquina e interação homem-máquina.
O resultado será uma ferramenta transparente, inteligente, confiável e imparcial, aplicada em três casos de estudo: na área da saúde (tratamento de tumores), no retalho online (para selecionar horários de entrega de encomendas) e na energia (para apoiar previsões de procura em edifícios). Mas o projeto pode ser aplicável a outros sectores: bancário, seguros, indústria e administração pública.
Além do INESC TEC (coordenador) o projeto TRUST-AI (Transparent, Reliableand Unbiased Smart Tool for AI) conta com a participação portuguesa da LTPLabs e de mais cinco parceiros, de cinco países diferentes: Tartu Ulikool (Estónia), Institut National De Recherche Eninformatique Et Automatique (França), Stichting Nederlandse Wetenschappelijk Onderzoek Instituten (Holanda), Applied Industrial Technologies (Chipre) e TAZI Bilisim Teknolojileri A.S. (Turquia).
O projeto é financiado em 4 milhões de euros pelo programa de investigação e inovação da União Europeia, Horizonte 2020, ao abrigo do acordo nº 952060.
Conheça os resultados do sorteio do Euromilhões. Veja os números do Euromilhões de 24 de…
Euro Dreams Resultados Portugal: A mais recente chave do EuroDreams é revelada hoje. Conheça os…
É um dos maiores conflitos militares da Europa e começou a 24 de maio de…
Escritor, artista, e desenhador de banda desenhada, Hergé ficou célebre pela personagem que criou, mas…
Milhão: onde saiu hoje? Saiba tudo sobre o último código do Milhão de sexta-feira e…
Hoje é dia de homenagear as vítimas timorenses, não apenas as vítimas do massacre no…