A política de gestão de dados utilizados pela IA, a segurança da informação e robustez dos sistemas e o impacto da inteligência artificial são as áreas em foco de uma auditoria da Inspecção-geral da Saúde sobre o uso de Inteligência Artificial no SNS. O Bastonário da Ordem dos Médicos considera que a IA deve ser encarada como uma ferramenta de apoio à decisão clínica e não como agente autónomo de diagnóstico.
A Inspecção-Geral das Actividades em Saúde (IGAS) iniciou uma auditoria ao uso de Inteligência Artificial (IA) nas entidades do Serviço Nacional de Saúde (SNS), que avaliará as fontes de financiamento, segurança e respeito pelos direitos dos utentes.
Numa nota divulgada no seu site, a IGAS explica que esta auditoria pretende contribuir para o uso responsável da IA no SNS, avaliando a estratégia de inteligência artificial nos serviços públicos de saúde e o investimento em formação e capacitação dos profissionais.
Na semana passada, o bastonário da Ordem dos Médicos avisou que a inteligência artificial não pode substituir um médico. “É fundamental afirmar que a IA não é, nem pode ser, um substituto do julgamento clínico, da experiência médica nem do contacto humano. O diagnóstico é parte essencial do ato médico, que envolve não apenas dados objetivos, mas também interpretação contextual, escuta ativa e empatia”, afirmou Carlos Cortes.
O bastonário acrescentou que a IA deve ser encarada como uma ferramenta de apoio à decisão clínica e não como agente autónomo de diagnóstico. Carlos Cortes diz faltarem “evidência científica robusta, mecanismos de validação rigorosos e, sobretudo, transparência algorítmica que permita aos médicos compreender e confiar nas decisões sugeridas”.

À agência Lusa, Carlos Cortes defendeu ainda a criação de uma agência nacional para a IA na área da saúde, como forma de prevenir diagnósticos errados e desinformação médica.
Nos casos de diagnósticos errados, o bastonário refere que as “consequências podem ser gravíssimas: atrasos no início de terapêuticas adequadas, agravamento de estados clínicos, exposição a tratamentos desnecessários ou inapropriados, sofrimento evitável e até perda de vidas humanas”, ao mesmo tempo que as ferramentas de IA não assumem responsabilidade moral.
O médico diz ainda que em Portugal não foram identificados casos em que o uso de IA tenha causado consequências clínicas relevantes, embora a ausência de casos não possa ser confundida com a ausência de risco.