Os Desafios da Responsabilidade Legal na Aplicação de IA na Saúde

A crescente utilização de inteligência artificial na saúde levanta questões sobre a responsabilidade em casos de erro. A centralização de dados sensíveis, embora promissora, apresenta riscos jurídicos e técnicos que precisam ser discutidos.
a-correio-do-estado

Recentemente, uma reportagem destacou um movimento crescente entre grandes empresas de tecnologia que estão criando ferramentas para analisar prontuários médicos, resultados de exames e dados de dispositivos móveis. A proposta é centralizar informações de saúde atualmente dispersas, facilitando o acesso do usuário aos seus dados e melhorando a tomada de decisões. Apesar do avanço tecnológico que representa, a situação revela-se mais complexa e arriscada do que aparenta.

Os dados de saúde são considerados sensíveis, pois estão relacionados à intimidade dos indivíduos. A centralização dessas informações em plataformas digitais, embora possa ser eficiente, também pode se tornar um alvo atrativo para ataques cibernéticos. Contudo, o problema transcende o âmbito técnico e adentra o jurídico, uma vez que há relatos de falhas em sistemas de inteligência artificial na identificação de emergências clínicas ou na sugestão de orientações inadequadas. Isso levanta uma questão crucial: quem é responsabilizado quando a tecnologia falha?

INTELIGÊNCIA ARTIFICIAL

Resumo rápido gerado automaticamente

Clique no botão abaixo para gerar um resumo desta notícia usando inteligência artificial.

Gerar Resumo

Esse debate, ainda em fase inicial, já se mostra essencial. Nas relações de consumo mediadas pela tecnologia, a responsabilidade tende a se dispersar entre desenvolvedores, plataformas e prestadores de serviço. Para o usuário, a exposição ao risco é imediata e concreta. Outro aspecto a ser considerado é o consentimento. Embora o compartilhamento de dados deva ser feito com autorização clara e informada, a realidade costuma ser marcada por termos de uso extensos e linguagem técnica, criando uma assimetria informacional entre empresas e consumidores.

No Brasil, a Lei Geral de Proteção de Dados Pessoais (LGPD) impõe um regime mais rigoroso para o tratamento de dados sensíveis, incluindo os relacionados à saúde. No entanto, a eficácia dessa proteção não depende somente da norma, mas também de sua aplicação prática diante de tecnologias que evoluem rapidamente. O Código de Defesa do Consumidor prevê a responsabilidade objetiva e solidária dos fornecedores, mas essa lógica exige que as relações de consumo sejam identificáveis, permitindo a delimitação clara da cadeia de fornecimento e os pontos de controle.

O desafio apresentado pela inteligência artificial reside na opacidade das decisões tomadas por sistemas integrados a diversos agentes, dificultando a identificação precisa de onde uma falha pode ter ocorrido. Portanto, o debate não se centra em impedir a inovação, mas em estabelecer limites claros para sua aplicação. A incorporação da inteligência artificial na área da saúde parece ser inevitável, mas o modelo de responsabilização que acompanhará esse avanço e o nível de proteção garantido ao consumidor ainda estão em aberto.

A tecnologia promete respostas rápidas e decisões mais eficientes. Entretanto, é fundamental que o sistema jurídico assegure que, em casos de erro, haja uma resposta clara e adequada.