Nos últimos anos, testemunhamos o surgimento e o desenvolvimento de tecnologias inovadoras e relevantes, como a Inteligência Artificial (IA), e suas aplicações em diversas áreas, incluindo a saúde. Entre essas inovações, destaca-se o ChatGPT, uma IA generativa avançada criada pela OpenAI. Ele não apenas "entende" e gera texto, mas também pode ser treinado para executar uma série de tarefas complexas e especializadas. Contudo, apesar dos inúmeros benefícios do uso da IA no campo médico, também enfrenta desafios e levanta questões éticas.
Desafios éticos e regulatórios no Brasil
No Brasil, o assunto está atualmente em discussão no Senado, através do projeto de lei (PL) 2.338/2023, que visa regulamentar a IA estabelecendo princípios, direitos e regras para o seu uso. O tema tem gerado divergências e controvérsias entre diferentes setores e categorias, abrangendo tanto fornecedores quanto usuários de inteligência artificial no dia a dia.
Segundo o Dr. Paulo Henrique de Souza Bermejo, professor da Universidade de Brasília (UnB) e pesquisador na área de inovação tecnológica aplicada à saúde, o uso da IA requer acesso a grandes volumes de dados de saúde, o que pode comprometer a privacidade e a segurança dos pacientes, entre outros fatores. Então, quem seria responsável se um algoritmo de IA vazasse dados de um paciente? Como garantir que as informações coletadas não sejam utilizadas para fins criminosos? Estas são perguntas que as instituições precisam considerar ao implementar tecnologias de IA, como enfatizou o especialista.
"Com o potencial de transformar o acesso à informação, a tomada de decisões baseadas em dados e a interação com os pacientes, o uso do ChatGPT na saúde, juntamente com outras tecnologias de IA, está se tornando mais evidente e necessário. Portanto, é essencial garantir que esses materiais sejam adequadamente protegidos e utilizados de forma ética, seguindo as diretrizes de consentimento informado e anonimização dos dados", afirmou o especialista.
Como evitar que decisões discriminatórias sejam tomadas?
Em outra perspectiva, o professor Bermejo explicou que os algoritmos de IA são tão bons quanto os dados que os alimentam, de modo que se as informações usadas para treinar esses sistemas forem tendenciosas ou não representativas da diversidade da população, isso pode resultar em decisões discriminatórias ou em desigualdades na prestação de cuidados de saúde. "Para evitar danos, é fundamental garantir que os sistemas de IA sejam desenvolvidos e testados levando em consideração a equidade e a inclusão", destacou o professor.
Outro ponto observado pelo especialista diz respeito à transparência. Para ele, os sistemas de IA devem ser claros e honestos quanto ao seu funcionamento e às decisões tomadas. "Idealmente, os profissionais de saúde e os pacientes devem ser capazes não apenas de compreender os mecanismos, mas também de questionar as recomendações e resultados fornecidos pelos algoritmos. A responsabilidade por erros e decisões baseadas nas informações trazidas pela IA é um aspecto igualmente importante a ser considerado", disse.
Momento de transição
Paulo Bermejo enfatizou que estamos em um momento de transição para a utilização da inteligência artificial na saúde, não se trata apenas de adotar uma nova tecnologia, mas de promover adaptações e ajustes para essa nova cultura de cuidados. "Esse contexto requer colaboração entre profissionais da área, pesquisadores, desenvolvedores de IA e reguladores", afirmou.
Para isso, alguns elementos devem ser levados em consideração. As instituições de saúde precisam de políticas de privacidade bem definidas e atualizadas regularmente para se adequar às novas tecnologias e regulamentações. Tais políticas devem abranger não apenas o armazenamento de dados, mas também a coleta, uso e compartilhamento de informações médicas e de identificação, conforme ressaltado pelo docente.
"Uma forma eficaz de proteger a privacidade dos pacientes é a anonimização de dados. Assim, ao remover ou modificar informações que possam identificar uma pessoa, a IA pode utilizar os dados para alimentar o modelo sem comprometer a privacidade do paciente", revelou.
Segurança cibernética e educação: pilares para o futuro da IA na saúde
Em outra frente do problema, as ameaças cibernéticas são uma preocupação constante, sendo crucial garantir que os sistemas de IA estejam protegidos contra possíveis ataques. "Isso inclui, por exemplo, o uso de firewalls, criptografia para proteção de dados e auditorias de segurança frequentes. Além disso, apenas indivíduos autorizados devem ter acesso aos dados de saúde, e esse acesso deve ser restrito no que diz respeito a informações sensíveis", conforme apontado pelo professor.
Educação e treinamento também desempenham um papel crucial nesse processo. Assim, tanto profissionais de saúde quanto pacientes devem ser educados sobre a importância da privacidade de dados na saúde e como a IA está sendo utilizada. "Isso não só promove transparência, mas capacita os usuários a tomar decisões sobre seus próprios dados", explicou o professor. Ele acrescentou que é essencial haver mecanismos para rastrear e auditar o uso da IA na saúde, permitindo identificar rapidamente erros ou problemas e determinar a responsabilidade.
À medida que a IA continua a evoluir e se expandir, novas oportunidades e desafios inevitavelmente surgirão. "Precisamos de um acompanhamento contínuo e de uma abordagem cuidadosa para maximizar os benefícios e minimizar os riscos, visando aprimorar a vida e o bem-estar dos pacientes e os avanços na medicina", concluiu o especialista.