Fala aê, pesquisador: a potência do ChatGPT na medicina

Fernanda Marques 16 de junho de 2023


“Depois, por curiosidade, faça as perguntas que você me fez ao ChatGPT e compare as respostas”, provocou o médico Luiz Carlos Lobo, entrevistado desta semana da coluna “Fala aê, pesquisador”. A conversa sobre inteligência artificial e seus impactos havia durado pouco mais de uma hora e percorrido temas não só de tecnologia e saúde, mas também de educação, história e muita cultura geral. Em uma pequena estação de trabalho da UNA-SUS, não bastasse a riqueza das inúmeras experiências de vida compartilhadas, a conversa foi permeada, ainda, por diversas citações de dados e autores. Sem pausas para consultar uma tela. Tudo olho no olho, daquele jeito que só as boas prosas proporcionam. O teste proposto, no entanto, foi realizado, e as questões da entrevista foram colocadas ao ChatGPT – um modelo de linguagem de inteligência artificial alimentado por uma enorme quantidade de dados de treinamento para entender e gerar texto. As respostas do software e do entrevistado seguiram caminhos diferentes, mas em nenhum momento se mostraram antagônicas. A inteligência artificial, inclusive, afirmou que “é importante ter cautela ao confiar em informações geradas pelo ChatGPT e sempre verificar com fontes confiáveis e humanas quando precisar de informações críticas ou precisas”. Uma dessas fontes humanas que deve ser consultada se chama Luiz Carlos Lobo. O ChatGPT ainda não sabe disso, mas os leitores deste “Fala aê, pesquisador”, com certeza, saberão.

 

O ChatGPT levou apenas cinco dias para chegar aos 100 milhões de usuários. Como se pode explicar essa adesão tão rápida?

Luiz Carlos Lobo: Acredito que as adesões imediatas tenham sido feitas, sobretudo, pelos jovens, que lidam mais facilmente com mudanças rápidas. Com a idade, as pessoas tendem a se sentir mais ameaçadas por essas mudanças. Uma quantidade enorme de estudantes estão usando o ChatGPT. E quem já fez algum seminário ou debate sobre o assunto? USP, UFRJ, a própria Fiocruz. Instituições de ensino superior e pesquisa. Ainda não houve uma discussão pública mais ampla. Ainda estamos refletindo sobre o que vamos fazer. Não podemos impedir que os estudantes entrem em sala de aula com o celular e que consultem o ChatGPT. Interpretar textos, redigir documentos, tudo isso o ChatGPT faz, e faz muito bem. Começaram a pegar alguns trabalhos de conclusão de curso redigidos pelo ChatGPT, porque estavam tão bem concatenados, sem erros de concordância, que não teriam sido escritos pelos estudantes. O ChatGPT consolida as informações e a pessoa não precisa fazer o exercício mental de agregar as ideias, mas não é censurando ou bloqueando o uso da ferramenta que você vai aprender a lidar com isso. Então os professores devem repensar o seu papel.

 

O impacto seria igual em todas as áreas?

Luiz Carlos Lobo: Na área médica tem menos distorções do que nas áreas política e social. Estou delimitando um campo a partir dos sintomas e queixas do paciente, não é uma digressão sobre o mundo. Faço a pergunta ao ChatGPT e ele gera uma resposta, mas não memoriza essa resposta nem guarda a experiência. Se eu fizer a mesma pergunta novamente, ele vai gerar uma resposta diferente, mas com conteúdo compatível. Já existem robôs que lançam milhões de fake news e, talvez, o ChatGPT pudesse amplificar isso. Mas, no caso da medicina, matemática e ciências exatas em geral, esse risco de interferência é menor. A regulação tem que ser por setor. Quando estou mexendo com matemática, 2 mais 2 são 4, isso não vai mudar, não adianta tentar interferir. Em relação à biologia já é um pouco diferente, mas também não tem tanta interferência. O médico não pode tratar você melhor ou pior por causa da sua vinculação política, tem que tratar igual.

 

O ChatGPT é confiável?

Luiz Carlos Lobo: Gente muito qualificada fez milhões de perguntas ao ChatGPT e ficou surpresa com as respostas absurdamente corretas e precisas. Mas é importante que as respostas obtidas sejam verificadas e discutidas. No caso dos residentes, eles devem discutir com os preceptores. Não havendo outros recursos, a orientação do ChatGPT, certamente, é melhor do que nada. O sujeito de uma comunidade isolada, em uma área remota, pode utilizar o botão “regenerate” para apresentar novamente a mesma pergunta e verificar se a resposta continua consistente. Mas o ideal seria discutir a resposta do ChatGPT com o profissional de um serviço de telessaúde – só que, para isso, os programas de telessaúde teriam que ser bem mais ágeis do que são hoje. 

 

Em que medida o ChatGPT representa uma novidade na medicina?

Luiz Carlos Lobo: Proponho que o ChatGPT seja usado, sobretudo, como um auxílio à decisão clínica. Ele não dá uma decisão clínica, mas apresenta várias hipóteses para resolver o problema de um paciente. Estou pensando em um médico na frente de um paciente que apresenta uma série de queixas, e é preciso oferecer uma solução para esse paciente que está ali. O médico, então, consulta o ChatGPT como um apoio. Isso já existia. Com o DXplain, à medida que você apresenta uma história, ele vai concatenando as questões e oferece uma orientação para se chegar a um diagnóstico mais correto. Outro exemplo é o IsabelHealth, cujo criador perdeu a filha por erro médico e decidiu desenvolver um sistema que melhorasse a capacidade dos médicos de resolverem os problemas. A novidade do ChatGPT é oferecer uma resposta com muito mais velocidade e abrangência. Fica uma competição quase desleal, porque o ChatGPT produz essa resposta a partir de cerca de 175 bilhões de parâmetros, como livros, artigos, vídeos, conteúdos do Twitter etc., fazendo pentilhões de operações por segundo. 

 

Como essa velocidade toda se traduz em contribuições para a saúde?

Luiz Carlos Lobo: Hoje, se o médico leva sete minutos em uma consulta, cinco deles são digitando dados no computador, sem olhar para o paciente. A inteligência artificial pode fazer toda a burocracia automaticamente, e dar mais tempo para que o médico converse com o paciente e ouça suas queixas. Essa escuta cabe ao médico. Ele pode até usar o ChatGPT, mas tem que saber o que perguntar à máquina, e nada substituirá o exame clínico do paciente. O treinamento do estudante de medicina deve ser feito examinando o paciente e analisando o caso. O médico tem que ser capacitado para isso. A inteligência artificial pode liberar o médico de outras tarefas, como preencher formulários, para que ele possa se dedicar ao fundamental, que é conversar com o paciente, ouvi-lo, discutir o caso e orientá-lo. O médico pode ter uma conversa livre com o paciente, enquanto a consulta é gravada e, depois, sumarizada pelo ChatGPT, que também responde muito rápido, caso o médico tenha alguma pergunta. Na medida em que poupa o tempo do médico, a inteligência artificial possibilita que ele se torne mais humano. O médico, hoje, atua dentro de um ritmo acelerado de produção, tendo que atender a um número elevado de pacientes, lutando contra o tempo em cada consulta e, muitas vezes, o atendimento se resume à prescrição de medicamentos. A inteligência artificial permite ao médico abreviar o tempo de interação com a máquina e aumentar seu tempo interagindo com o paciente.

 

A inteligência artificial pode trazer benefícios para o SUS?

Luiz Carlos Lobo: A gente pode melhorar o SUS se devolver ao médico o tempo para ele ser médico. E centrar a atenção toda no paciente: não importa onde ele vai ser atendido, as informações estão na “nuvem” e podem ser baixadas onde o paciente estiver. Minha grande ênfase hoje é aumentar a resolutividade da Atenção Primária à Saúde (APS), porque ela pode resolver 80% das demandas em saúde. O médico especialista vai ver os problemas da área dele, mesmo que eles não existam muito claramente, ele vai querer investigar, pedir exames específicos. E a queixa do paciente pode ser uma coisa inteiramente diferente, passível de ser resolvida na APS. No Rio de Janeiro, por exemplo, verificou-se que, nas áreas que contavam com recursos de inteligência artificial, diminuía a necessidade de internação de pacientes. Isso deu força à APS, em especial pela atuação das equipes de Saúde da Família, que são uma estratégia muito importante para o SUS. 

 

Quais os limites do uso da inteligência artificial na medicina?

Luiz Carlos Lobo: A inteligência artificial pode, por exemplo, fazer a leitura da foto de uma lesão na pele e compará-la com as imagens de um banco de dermatologia, identificando padrões e sugerindo um diagnóstico. A inteligência artificial pode indicar que é uma hemorragia subcutânea, mas não vai dizer o que causou. O computador dá o know-what (diz o que é), mas não o know-why (o porquê). Se você está tomando aspirina, esse medicamento diminui a agregação das plaquetas do sangue, o que explicaria uma hemorragia subcutânea. Compete ao médico a explicação do problema. Acho que a inteligência artificial vai devolver a dimensão humana para o médico. Hoje, as escolas de medicina formam muita gente que aprende seguindo protocolos, que prescreve um medicamento e não outro, e não sabe o porquê. O médico precisa conhecer as peculiaridades do paciente para fazer prescrições melhores, ajustadas às condições daquele paciente, e saber explicar o que está fazendo.

 

E quais os riscos?

Luiz Carlos Lobo: Quando você passa muito tempo deitado, sem mexer com as pernas, cria uma atrofia. Se você fica muito tempo sem mexer com a sua mente, ela também vai ficar mais preguiçosa. O risco do ChatGPT é a pessoa ficar baseada só nisso. Você não vai impedir o uso do ChatGPT, mas algo pode ser feito. Em relação ao residente, o ChatGPT não deve ser permitido na hora da avaliação, porque ele tem que demonstrar que sabe examinar o paciente. No caso de um trabalho de conclusão de curso, o estudante tem que mostrar suas fontes e saber explicar o que fez, como chegou àquele resultado.

 

Existe o risco de que o ChatGPT aprofunde as desigualdades? 

Luiz Carlos Lobo: As desigualdades existem, e temos que buscar maneiras de resolvê-las. Os bancos de dados são muito bons, mas não basta importá-los: é preciso adequá-los e enriquecê-los com informações da realidade brasileira – questões sobre arboviroses, doença de Chagas, esquistossomose, malária etc. É preciso atenção também à comunicação, que é fundamental. Infelizmente, não é incomum médico e paciente não se entenderem. O médico tem essa prepotência de achar que sabe tudo e o paciente não sabe nada. E o paciente pode consultar diretamente o ChatGPT. Um médico não gostar ou se recusar a discutir com o paciente uma resposta do ChatGPT denota uma arrogância brutal. Inclusive, já existe uma rede de farmácias nos Estados Unidos instalando quiosques com profissionais que explicam às pessoas as respostas sobre temas de saúde que elas receberam do ChatGPT. Pensando nas populações que vivem em regiões isoladas, onde não há profissionais de saúde, entendo que seria estratégico capacitar uma pessoa da comunidade no uso do ChatGPT. 

 

Como surgiu seu interesse por esse tema?

Comecei a mexer em computação na área de saúde em 1976, na UFRJ. A gente queria capacitar um grande número de alunos e colocava em autoinstrução as áreas básicas do curso – biofísica, bioquímica, fisiologia, anatomia etc. O objetivo era o aluno dominar aqueles conhecimentos e ele tinha uma gama de oportunidades ao seu dispor: filmes, vídeos, textos, seminários, orientações etc. Ele escolhia o que quisesse e, quando achava que já tinha aprendido, se dirigia até um terminal de computadores e fazia sua autoavaliação. Não servia para a aprovação dele, mas para ele verificar o seu próprio aprendizado. Uma pergunta que eu recebia muito era se eu achava que aquilo iria substituir o professor. Com a irreverência do jovem, eu respondia que o professor que achasse que seria substituído por um computador talvez até merecesse ser substituído mesmo. Infelizmente, hoje, tenho o mesmo a dizer em relação ao médico: se ele achar que vai ser substituído pelo ChatGPT, talvez não seja um bom médico. A característica básica do médico é ser humano, entender as peculiaridades do paciente, tratar o doente, não a doença. As escolas de medicina têm que ofertar essa formação. O médico tem que saber lidar com sofrimento, violência, dor, medo, morte. Hoje, a gente ouve médicos dizerem que fizeram tudo o que podiam fazer. Se não deram amparo ao paciente e à família, não fizeram nada.

 

Leia mais:

ChatGPT e o medo da Inteligência Artificial

“Fala aê”: confira todas as entrevistas da nossa série de divulgação científica