Quem responde quando a inteligência artificial erra na saúde?

Uma reportagem recente do New York Times trouxe à tona um movimento que tende a se intensificar nos

Uma reportagem recente do New York Times trouxe à tona um movimento que tende a se intensificar nos próximos anos: grandes empresas de tecnologia estão desenvolvendo ferramentas capazes de analisar prontuários médicos, resultados de exames e dados coletados por dispositivos móveis. A promessa é centralizar informações de saúde dispersas, facilitar o acesso do usuário aos próprios dados e melhorar a tomada de decisões.

É inegável que se trata de um avanço tecnológico relevante. Mas, na prática, o cenário é mais sensível e arriscado do que parece. Dados de saúde são classificados como dados sensíveis, pois dizem respeito à intimidade do indivíduo. Sua centralização em plataformas digitais pode se transformar em ponto crítico de vulnerabilidade, atrativo para ataques cibernéticos.

O problema não é apenas técnico, mas também jurídico. Há registros de que sistemas de inteligência artificial já falharam na identificação de emergências clínicas ou sugeriram orientações inadequadas. Surge, então, a pergunta: quem responde quando a tecnologia erra? Essa discussão ainda é incipiente, mas essencial. Nas relações de consumo mediadas por tecnologia, a responsabilidade tende a se diluir entre desenvolvedores, plataformas e prestadores de serviço. Para o usuário, o risco é concreto e imediato.

Outro ponto crítico é o consentimento. Em teoria, o compartilhamento desses dados depende de autorização livre, informada e inequívoca. Na prática, observa-se a repetição de termos de uso extensos, linguagem técnica e assimetria informacional entre empresas e consumidores.

No Brasil, a Lei Geral de Proteção de Dados Pessoais (LGPD) estabelece um regime rigoroso para o tratamento de dados sensíveis, incluindo os de saúde. Ainda assim, a eficácia dessa proteção depende da aplicação concreta diante de tecnologias em rápida evolução. O Código de Defesa do Consumidor prevê responsabilidade objetiva e solidária dos fornecedores, mas essa lógica pressupõe relações de consumo identificáveis, com cadeia de fornecimento e pontos de controle claros.

O desafio da inteligência artificial está no fato de que decisões são tomadas por sistemas opacos e integrados a múltiplos agentes, muitas vezes sem possibilidade de identificar com precisão onde ocorreu a falha. O debate não é sobre impedir a inovação, mas sobre definir seus limites.

A incorporação da inteligência artificial à saúde é inevitável. O que está em aberto é o modelo de responsabilização que acompanhará esse avanço e o grau de proteção efetivamente garantido ao consumidor. A tecnologia promete respostas rápidas e decisões mais eficientes. O direito precisa garantir que, quando algo der errado, exista uma resposta clara.

👁️ 58 visualizações
🐦 Twitter 📘 Facebook 💼 LinkedIn
compartilhamentos

Comece a digitar e pressione o Enter para buscar

Comece a digitar e pressione o Enter para buscar