Creso, o lendário rei da Lídia, antiga região da Ásia Menor, se tornou conhecido por sua exuberante riqueza e colossal poder. Havia então na Grécia, o oráculo de Delfos, famoso templo “dedicado a realizar profecias”. A lenda conta que Creso queria testar a precisão do oráculo e decidiu consultá-lo. Este, disse a Creso que se ele atacasse um império do outro lado do rio Halis ‘destruiria um grande império’. Creso se entusiasmou com a resposta e atacou com seus exércitos o Império Persa, que ficava do outro lado do rio. Foi derrotado e capturado. Tomado de profunda vergonha, Creso percebeu então que a profecia era verdadeira, mas sua interpretação estava equivocada. O grande império que ele havia destruído não era o persa, mas o próprio império lídio, conquistado pelos persas. Erros de interpretação são mais comuns hoje do que há 2500 anos. Adoramos profecias. Nosso entusiasmo em tirar conclusões ligeiras, precipitadas e pífias é quase um “oráculo” no século XXI.
Devido a nossa busca por conhecimento, o “negócio de fornecer respostas” passou a ser ouro neste século. Desde as Páginas Amarelas, passando pela Enciclopédia Britânica, cruzando o Google e chegando até o ChatGPT, o ser humano possui cada vez mais respostas, embora quase sempre não saiba fazer perguntas. Aí mora o perigo: perguntas erradas geram interpretações nanicas. Boa parte das análises e interpretações que a comunidade médica, científica e acadêmica tem concluído sobre a plataforma generativa de inteligência artificial ChatGPT é de um primarismo e protecionismo institucional sombrio, muito aquém dos protocolos básicos que uma pesquisa randomizada deveria conter. As respostas da ferramenta, cuspidas em frações de segundo, poderão ser uma nova onisciência irreligiosa, capaz de fazer corar qualquer oráculo anterior. Todavia, análises precipitadas de seu uso no campo da Saúde podem gerar de um simplório entusiasmo (ingênuo) até previsões apocalípticas e hecatômbicas. Nos dois casos, perde-se tempo, saliva e inteligência (humana), podendo chegar ao mais ordinário obscurantismo.
O artigo publicado pelo Wall Street Journal (24/02/2023), intitulado “ChatGPT Heralds an Intellectual Revolution” e assinado por três celebridades intelectuais (Henry Kissinger, Eric Schmidt e Daniel Huttenlocher), mostra como é prematuro extrair conclusões sobre as novas plataformas em IA: “A Era da Inteligência Artificial generativa apresenta um desafio filosófico e prático em uma escala não experimentada desde o início do Iluminismo. IA, quando combinada com a razão humana, representa um meio de descoberta mais poderoso do que a própria razão humana sozinha. A diferença essencial entre a Era do Iluminismo e a Era da IA, portanto, não é tecnológica, mas cognitiva. Por enquanto, temos uma conquista nova e espetacular que representa uma glória para a mente humana, como IA, mas ainda não desenvolvemos um destino para isso. À medida que nos tornamos Homo Technicus, temos o imperativo de definir o propósito de nossa espécie. Cabe a nós fornecer as respostas reais”. O texto, corretamente, assevera que ‘IA generative’ é um ‘ciclone’ de mistérios, diferente do que o homem conheceu no Iluminismo, quando os limites do conhecimento e da compreensão humana se moviam razoavelmente em paralelo: “a hipótese era o entendimento pronto para se tornar conhecimento; a indução era o conhecimento se transformando em compreensão”. Na Era da IA, ocorre uma assimetria de velocidades, onde os enigmas são resolvidos por processos que permanecem desconhecidos. Inerentemente, a “IA altamente complexa promove o conhecimento humano, mas não a compreensão humana, um fenômeno contrário a quase toda a modernidade pós-iluminista”.
Não importa se já sabemos que “coisas como GPT” são somente programas sofisticados de computação. Temos que considerar todas as possibilidades e compreensões do que vem pela frente e isso não significa uma ‘aceitação ilimitada’, mas, acima de tudo, um ilimitado desejo de exploração, seja no campo tecnológico, sociológico como ontológico. O estudo (“Reliability and reproducibility in computational science: implementing verification, validation and uncertainty quantification in sílico”), publicado pela The Royal Society, pondera: “modelos computacionais são poderosos em ciência e engenharia, mas, ainda assim, código, dados, documentação, mecanismos de validação, verificação e quantificação de incerteza são essenciais para confiar nos seus resultados”. Qualquer generalização conceitual, prognóstica ou mesmo especulativo-futurista sem ampla base de testagem é mera estratégia voltada ao ‘desvio da atenção’. Como descreveu um artigo da Harward Business Review: “Ferramentas como o ChatGPT são como espelhos para a sociedade - eles refletem o que veem. Se você os deixar soltos para serem treinados em dados não filtrados da Internet, eles podem cuspir vitríolo. É por isso que os LLMs são treinados em conjuntos de dados cuidadosamente selecionados que o desenvolvedor considera apropriados. Ter confiança no ChatGPT exigirá uma lente multidisciplinar que reúna perspectivas comerciais, técnicas, jurídicas, financeiras e éticas. Mas se a resposta for “sim”, provavelmente há um sólido e denso uso para esse modelo de IA”.
Em quase todos os países, a formação médica se agarra em um “sistema de memorização e retenção de informações”. As novas plataformas de IA preparam a transição formacional para modelos de “curadoria e aplicação do conhecimento médico”. Jeremy Faust, médico de emergência do Brigham and Women's Hospital, em Boston, colocou o ChatGPT à prova solicitando um quadro diagnóstico para um paciente fictício com tosse, ficando espantado com o modelo proposto pela ferramenta, considerando a resposta "estranhamente boa”. O potencial é óbvio: ajudar os profissionais de saúde a classificar um conjunto de sintomas, determinar as dosagens do tratamento, recomendar um curso de ação e assim por diante e, acima de tudo, embasar qualquer decisão em estudos e critérios de medicina baseada em evidências. Mas, ainda que encorajador, continua sendo arriscado para a versão da ferramenta ChatGPT que está sendo utilizada em março de 2023. É provável que em março de 2024 seja menos arriscado, e em março de 2025 talvez seja menos arriscado ainda do que “média de respostas” oferecidas por médicos quando provocados com as mesmas perguntas.
Pesquisadores da Universidade de Liverpool testaram se o ChatGPT poderia ser usado para tomar decisões sobre a “prescrição de antibióticos a pacientes”. Em carta publicada no The Lancet Infectious Diseases (“ChatGPT and antimicrobial advice: the end of the consulting infection doctor?”) os acadêmicos da universidade (Institute of Systems, Molecular and Integrative Biology) mostraram que embora a inteligência artificial ainda não possa substituir um médico de família (general practitioner), há um claro potencial para ela desempenhar um papel na prática clínica. Os pesquisadores apresentaram ao ChatGPT oito ‘cenários hipotéticos de infecção’ nos quais as pessoas normalmente consultariam seus médicos (como uma “inflamação peitoral”). Eles então avaliaram o conselho fornecido pela tecnologia quanto à sua adequação, consistência e impacto na segurança do paciente. “A avaliação constatou que o ChatGPT entendeu os cenários e forneceu respostas coerentes, incluindo isenções de responsabilidade, direcionando os pacientes para fontes de aconselhamento. Também pareceu entender a necessidade de prescrever antibióticos apenas quando havia evidências de infecção bacteriana. No entanto, a ferramenta forneceu conselhos inseguros em cenários complexos e onde informações importantes não foram fornecidas explicitamente”, explicou o estudo. Alex Howard, médico e coautor da carta, relata: “Foi fascinante ver o potencial da inteligência artificial na área da saúde, demonstrado por meio deste experimento que testou a capacidade do ChatGPT de fornecer conselhos sobre tratamentos antibióticos. Com o aumento da resistência a antibióticos representando uma ameaça significativa à saúde global, a capacidade da IA de fornecer aconselhamento de tratamento preciso e seguro pode revolucionar a maneira como abordamos o atendimento ao paciente. Estamos ansiosos para explorar mais essa tecnologia e suas implicações para o futuro dos cuidados de saúde”. Esse é o eixo de todo o contexto-IAgenerativo: “testar, explorar, expurgar suas inconsistências, criticar suas bases clínicas de acesso, e, só depois, quiçá daqui a alguns anos, promover certezas”.
Óbvio, que toda a comunidade médica e científica se alvoroça em expressar as incorreções que as plataformas de IA estão sujeitas. A advertência não é sem razão, estamos no início desse ciclo de ‘metaplataformas’. Nesse sentido, o intricado jogo de poder das instâncias de avaliação homem-máquina, devem, no mínimo, comparar com as taxas de erros cometidos por médicos-homo-sapiens. A pergunta, assim, “não é saber se IA erra, mas se erra menos ou mais do que a mediana de profissionais de saúde espalhados pelos cantos do mundo”. Três meses após o lançamento mundial da plataforma GPT, há uma pressa ensandecida em julgar seus resultados factuais. Será que os milhares de médicos recém-formados (ou milhões), que são empurrados aos labirintos da decisão diagnóstica, sem nenhuma autorização de erro, não precisariam da ajuda dessas máquinas?
O estudo “An Explorative Assessment of ChatGPT as an Aid in Medical Education: Use it with Caution”, por exemplo, publicado em fevereiro de 2023, correu em sentenciar ao final de sua análise: “ChatGPT pode ser uma ferramenta útil para ajudar os educadores médicos a elaborar esboços de conteúdo de cursos e sessões, e criar perguntas de avaliação. Ao mesmo tempo, deve-se ter cuidado, pois o ChatGPT é propenso a fornecer informações incorretas; supervisão especializada e cautela são necessárias para garantir que as informações geradas sejam precisas e benéficas para os alunos. Portanto, é prematuro para estudantes de medicina usar a versão atual do ChatGPT como um provedor de informações “sabe-tudo”. No futuro, os educadores médicos devem trabalhar com especialistas em programação para explorar e aumentar todo o potencial da IA na educação médica”. De qual ‘planeta’ pode sair a ideia dos pesquisadores do estudo (Hackensack Meridian School of Medicine) de que a plataforma se predestina a ser um “sabe-tudo” (leve-se em consideração, ainda, que o estudo foi realizado em 30 de novembro de 2022, poucos dias depois do lançamento da plataforma). A banalidade das conclusões invoca a sua ideologia: preservar uma camada protetiva à docência da comunidade médica. Iguais a esse, centenas de outros papers proliferam em analisar rapidamente as “maldades e perigos” de IA na Saúde. Alguns navegam em rumos absolutamente científicos e randomizados, outros somente para mostrar a sua comunidade de alunos (Hackensack, por exemplo) a inconveniência de estabelecer diálogo com as ferramentas generativas em IA.
Qual deveria ser a posição da Academia Médica: testar, testar, avaliar, discutir, mensurar os perigos e separar as inconveniências. Todos as associações médicas deveriam financiar licenças do ChatGPT Plus para avaliação, de modo que cada médico-associado pudesse ‘explorar de modo experimental’ suas virtudes e perigos. Sem medo e com o cuidado que um médico normalmente tem com a inclusão de uma nova terapêutica, por exemplo. Se isso não for feito as claras, de forma documentada e apoiada pelas instâncias acadêmicas e associativas, será feito veladamente, de modo camuflado, flertando com o obscurantismo (sem diálogo, por exemplo, com os pares por medo de “irritar” as Associações Médicas). Profissionais de Saúde precisam de apoio. Talvez uma mínima faixa deles tenha condições de prescindir da investigação de novas tecnologias, em geral porque já contam com sólidas plataformas de ensaio apurado (institutos de pesquisa, por exemplo).
Mais apressamento ainda com as profecias sobre redução da empregabilidade, quase sempre lastreadas em conjecturas e vislumbres açodados. O Google é o ‘rei do pedaço’ em buscas. A empresa teve receitas de US$ 163 bilhões em 2022 graças a uma legião de “pesquisadores” (91% de participação no mercado). O ataque frontal e repentino da OpenAI (provedora do ChatGPT) talvez possa destruir alguns mitos de sua inexpugnabilidade. Mas, quanto a empregabilidade, sempre é bom lembrar algumas das manchetes dos jornais da época em que o Google Search foi lançado de forma madura: “Google's rise cuts into jobs" (CNN Money, 2005); "Google blamed for job losses" (The Guardian, 2005); "Google Hiring Continues to Surge, But Where Are the Jobs for Journalists?" (Editor & Publisher, 2007); "Google's employment policy under fire" (ZDNet, 2005); etc. Assustou, mas por pouco tempo.
Antecipar o futuro é legítimo, profetizá-lo é inútil. O futuro é uma estação adiantada de observação: não pode ser previsto ou descartado. Deve ser observado, estudado, analisado e entendido. Não o futuro-relâmpago (curtíssimo prazo), ou o futuro-incognoscível (longuíssimo prazo, mera especulação futurística), mas aquele carregado de evidências, estudos e associado aos novos comportamentos da sociedade e da comunidade médica. Trata-se um pouco do que o Prof. Dr. Chao Wen, chefe da Disciplina de Telemedicina da FMUSP, mostrará em 22/03 na sessão do mediacast “Future of Digital Health”: avaliar os impactos do contexto de “Núcleo Digital de Saúde” dentro do futuro de nosso ambiente clínico-assistencial.
A ideia do “futuro como algo criado pelos seres humanos” foi induzida por Kant (1724-1804), que argumentou sermos capazes de moldar o futuro por meio de nossas próprias ações. Mas, o filósofo pragmatista John Dewey (1859 -1952) e o economista John Keynes (1883-1946) foram mais longe: “o futuro deve ser sempre percebido primeiro como uma oportunidade, como uma hipótese esperançada”. Nesse sentido, talvez pela primeira vez neste século, tenhamos sido levados a perceber claramente (como um soco-estomacal) que “o futuro vem do futuro”. ChatGPT não é um sabe-tudo, longe disso. Mas as plataformas generativas em IA poderão levar a civilização humana a um novo patamar cognitivo. Só teremos certeza disso se as explorarmos exaustivamente, sem timidez e sem obscurantismo.
Guilherme S. Hummel
Scientific Coordinator Hospitalar Hub
Head Mentor – EMI (eHealth Mentor Institute)