Entrevista a Ivo Antão

Fotografia: D.R.

Entrevista por Abraão Ribeiro, Paulo Duarte, Hugo Raposo e Cátia Vilaça

Ivo Antão fala da forma como os desafios da Inteligência Artificial têm sido incorporados no contexto da Luz Saúde e também sobre a gestão de recursos, sejam materiais e humanos. O gestor partilha também a sua visão sobre modelos de arquitetura hospitalar.

No contexto do Hospital Luz Saúde, em que situações, clínicas e não clínicas, está a inteligência artificial a ser utilizada? As questões regulatórias têm constituído um desafio?

A parte da inteligência artificial é pervasiva, e altera muito rapidamente. A primeira parte é termos contexto no que é a implementação. Independentemente da utilização, uma organização como a Luz Saúde tem de se preparar e preparar os seus para a adoção. A regulamentação europeia já tem isto contextualizado, através do AI Act [Regulamento de Inteligência Artificial que estabelece regras harmonizadas], e nós já temos um AI Office. O AI Act já está “desatualizado”, como seria de esperar, porque quando começou a ser feito, ainda não existia IA generativa [focada na criação e conteúdo novo].

Tentou-se incorporar esses desafios, o que não é possível sem reescrever muitas das coisas. Mas a IA generativa não é grande desafio, porque, entretanto, surgiu a agêntica [sistemas de IA que podem operar com um certo grau de independência, tomando decisões e realizando ações]. Agora, vai passar a multiagêntica [agentes autónomos com capacidade de trabalhar em conjunto].

A máquina vai tentar explicar, o humano é que não tem inteligência suficiente para o perceber. Quando eu tiver um padrão que representa uma combinação de um trilhão de tokens, não há nenhum ser humano que consiga acompanhar. O cérebro humano só consegue abstrair mais ou menos dois objetos ao mesmo tempo.

Essa explicabilidade não vai acontecer, pelo que tudo isto tem a ver com risco. Perante isto, construímos esse AI Office, e temos uma estrutura interna multidisciplinar que tem de perceber que vamos ter esse risco.

Os tipos de risco relevantes aqui têm a ver com privacidade e segurança. A criticidade desse risco varia consoante a tipologia de informação de que estamos a falar.

E que ferramentas é que estão disponíveis para debelar esses riscos?

Não são ferramentas, é processo. Há várias ferramentas e nós analisámos algumas. Parte delas está a ser construída agora, e algumas ainda têm de ser construídas.

Há coisas que os fornecedores das plataformas dizem que não podem fazer, outras que não estão interessados em fazer connosco, e não podemos ser inventores da roda em tudo. Estamos a analisar, por isso é que em algumas coisas somos cuidadosos com a introdução. Nesta fase, por exemplo, o que não é permitido pelo regulamento são os sistemas proibidos [práticas de IA consideradas inaceitáveis devido aos seus potenciais riscos]. Fizemos um levantamento de todos os sistemas que temos internamente e não temos sistemas proibidos, mas temos os de alto risco, e para os trabalharmos, é preciso aprender a fazer esta avaliação.

Há muita gente que não percebe a transferência de controle que é feita. A partir do momento que começo a ter estes agentes com autonomia de decisão, prescindo do controlo. Nalguns casos até prescindo do controlo na totalidade. Eu até posso controlar o que é feito para mim, mas o que sai do perímetro já não é controlável. Aliás, é simples explicar isto na parte dos dados: se eu, porventura, partilhar os dados de um cliente meu para fora do meu perímetro, a única coisa que posso dizer é que partilhei isso. Mas se depois aparecer num jornal, já não consigo provar que não fui eu. Nesta parte, ainda pior, porque estamos a falar de comportamento, não de dados.

Do ponto de vista da responsabilidade, quando construímos alguns destes protótipos/pilotos ou pilotos controlados, o deployment é monitorizado e vigiado, mas cada médico que vai utilizar tem de fazer este ciclo. Na Saúde, o decisor, no fim, é sempre o médico. Quando ele assume que aquele componente de inteligência artificial está a auxiliar, assume a bondade do que lhe é transmitido.

Na realidade, muitas vezes está a assumir a responsabilidade por algo que não controlou. Isso já acontece na Imagiologia. O médico, quando olha para um ecrã, para uma ferramenta de processamento de imagem, não foi ele que fez o highlight, não sabe os princípios matemáticos que estão por trás da variação de spin das partículas por alteração do campo magnético, que é o que é uma ressonância. No entanto, consegue tomar uma decisão com segurança, porque há um ciclo de introdução desta tecnologia que obriga a que o fabricante faça isto e responda por ele. (...)

Entrevista completa na TecnoHospital nº 129, maio/junho 2025, dedicada ao tema "Imagiologia - Parte III"

Newsletter TecnoHospital

Receba quinzenalmente, de forma gratuita, todas as novidades e eventos sobre Engenharia e Gestão da Saúde.


Ao subscrever a newsletter noticiosa, está também a aceitar receber um máximo de 6 newsletters publicitárias por ano. Esta é a forma de financiarmos este serviço.