Recentemente, uma reportagem destacou um movimento crescente entre grandes empresas de tecnologia que estão criando ferramentas para analisar prontuários médicos, resultados de exames e dados de dispositivos móveis. A proposta é centralizar informações de saúde atualmente dispersas, facilitando o acesso do usuário aos seus dados e melhorando a tomada de decisões. Apesar do avanço tecnológico que representa, a situação revela-se mais complexa e arriscada do que aparenta.
Os dados de saúde são considerados sensíveis, pois estão relacionados à intimidade dos indivíduos. A centralização dessas informações em plataformas digitais, embora possa ser eficiente, também pode se tornar um alvo atrativo para ataques cibernéticos. Contudo, o problema transcende o âmbito técnico e adentra o jurídico, uma vez que há relatos de falhas em sistemas de inteligência artificial na identificação de emergências clínicas ou na sugestão de orientações inadequadas. Isso levanta uma questão crucial: quem é responsabilizado quando a tecnologia falha?
INTELIGÊNCIA ARTIFICIAL
Resumo rápido gerado automaticamente
Esse debate, ainda em fase inicial, já se mostra essencial. Nas relações de consumo mediadas pela tecnologia, a responsabilidade tende a se dispersar entre desenvolvedores, plataformas e prestadores de serviço. Para o usuário, a exposição ao risco é imediata e concreta. Outro aspecto a ser considerado é o consentimento. Embora o compartilhamento de dados deva ser feito com autorização clara e informada, a realidade costuma ser marcada por termos de uso extensos e linguagem técnica, criando uma assimetria informacional entre empresas e consumidores.
No Brasil, a Lei Geral de Proteção de Dados Pessoais (LGPD) impõe um regime mais rigoroso para o tratamento de dados sensíveis, incluindo os relacionados à saúde. No entanto, a eficácia dessa proteção não depende somente da norma, mas também de sua aplicação prática diante de tecnologias que evoluem rapidamente. O Código de Defesa do Consumidor prevê a responsabilidade objetiva e solidária dos fornecedores, mas essa lógica exige que as relações de consumo sejam identificáveis, permitindo a delimitação clara da cadeia de fornecimento e os pontos de controle.
O desafio apresentado pela inteligência artificial reside na opacidade das decisões tomadas por sistemas integrados a diversos agentes, dificultando a identificação precisa de onde uma falha pode ter ocorrido. Portanto, o debate não se centra em impedir a inovação, mas em estabelecer limites claros para sua aplicação. A incorporação da inteligência artificial na área da saúde parece ser inevitável, mas o modelo de responsabilização que acompanhará esse avanço e o nível de proteção garantido ao consumidor ainda estão em aberto.
A tecnologia promete respostas rápidas e decisões mais eficientes. Entretanto, é fundamental que o sistema jurídico assegure que, em casos de erro, haja uma resposta clara e adequada.