ChatGPT e o medo da Inteligência Artificial

Fiocruz Brasília 19 de maio de 2023


Artigo de opinião de Luiz Carlos Lobo (*)

 

Artigo recente de Yuval Harari reflete o medo, sentido por muitos, no uso da inteligência artificial (IA). O mesmo medo que os tecelões tiveram com o advento do tear mecânico. Em Lyon, França, chegaram a invadir fábricas e quebrar equipamentos. Medo da inovação e mudança sempre existirá, cabendo ao homem não rejeitá-las, mas procurar avaliar o seu alcance no seu campo de ação e, eventualmente, como incorporá-las ao seu trabalho.

 

A velocidade de incorporação de uma tecnologia pode ser medida pela velocidade com que atinge 100 milhões de usuários. Assim, enquanto Netflix levou  3,5 anos para atingir essa marca, o Twitter 2 anos e o Facebook 10 meses, o Spotify 5 meses e o ChatGPT 5 dias para chegar aos 100 milhões de usuários, indicando a avidez com que foi recebido. Calcula-se que 90% dos estudantes americanos já o usem regularmente para elaborar textos e trabalhos.

 

Realmente a incorporação de IA em armas, seguindo algoritmos de decisão criados pelos homens, pode levar a erros por vezes fatais.

 

Mas o uso de IA acrescentou duas dimensões importantes ao homem: memória e tempo. Efetivamente, o ChatGPT e outras linguagens generativas podem integrar bilhões de parâmetros (livros, artigos, enciclopédias, imagens, sons, vídeos e posts em plataformas como YouTube, Facebook e Twitter) e compilar essas informações, respondendo a questões a eles propostas numa velocidade inacreditável (na casa de quatrilhões e mesmo pentilhões de operações por segundo).

 

Há o medo de que o ChatGPT possa ser usado para gerar milhões de mensagens influenciando compradores (o que já é feito pela Google) e, mais crítico, eleitores, com o grande risco de orientar decisões e votos em eleições soi-disant [supostamente] livres. Mas, em menor número, chatbots gerados por humanos já fazem isso, criando a necessidade de regulação, sem ser censura de opiniões, que podem, se necessário, resultar em ações legais contra o autor.

 

Mas, se o ChatGPT pode trazer riscos no setor de ciências sociais e políticas (há um vídeo do Leandro Karnal confrontando o ChatGPT sobre filosofia), o risco é menor, se existe, em setores como ciências exatas e saúde. Cálculos matemáticos, por exemplo, não ensejam oportunidades de interpretação.

 

O uso do ChatGPT vai liberar o médico de tarefas como digitar dados do paciente em seu prontuário, podendo, depois de ouvir a consulta, gerar um sumário da mesma, que deverá ser aprovado pelo médico. Em várias consultas apresentando as queixas de um paciente, o ChatGPT, questionado, ofereceu hipóteses de solução para o caso e sempre com o disclaimer [alerta] de que, persistindo os sintomas, seria aconselhável procurar um médico.

 

O ChatGPT funciona oferecendo apoio à decisão clínica, como já o fazem vários trackers [rastreadores] como DXplain, IsabelHealth e ADA.

 

Pesquisadores da UCSD (Universidade da Califórnia em San Diego) selecionaram ao acaso 195 questões de pacientes e as apresentaram a médicos e ao ChatGPT. As respostas de ambos foram revistas por três médicos numa avaliação cega, ou seja, os profissionais não sabiam se a resposta havia sido de médico ou do ChatGPT. A qualidade e a empatia das respostas foram analisadas com valores numa escala de 0 a 5 pontos, entre muito bom e muito ruim. Os resultados foram surpreendentes: o score de bom e muito bom foi de 79% com o ChatGPT e de apenas 22% com os médicos. Quando se avaliou empatia, a discrepância ainda foi maior: de 45,1% para o ChatGPT e de apenas 4,6% para os médicos. As respostas dos médicos eram curtas e as do ChatGPT, mais elaboradas.

 

Recentemente, a Google anunciou o lançamento do Med-PaLM, especificamente voltado para responder a questões relacionadas à atenção à saúde. Para tal, processou e capacitou, através do aprendizado de máquina, um elevado número de bases de dados em saúde, associando o processamento de 540 bilhões de parâmetros. Ainda não liberado para o público, o Med-PaLM, usado por especialistas, foi aprovado (com 85% de acurácia) respondendo a perguntas feitas nas três fases do Exame de Validação de Médicos nos Estados Unidos.

 

O reconhecimento de imagens é outro campo relevante a ser abordado, refletindo a necessidade de se ter um diagnóstico, ou hipóteses diagnósticas, em tempo hábil. Muitas vezes, leva-se semanas para se ter um laudo de exame de imagem, dificultando e mesmo impedindo a tomada oportuna e confiante de uma ação médica. A disponibilização de bases de imagens em várias áreas, como exames de imagem, cardiologia, dermatologia, patologia e mastologia, acumuladas em PACS (sigla em inglês para sistema de arquivamento e comunicação de imagens) e validadas por especialistas e exames de confirmação de diagnóstico, permitirá a apresentação computadorizada de laudos em segundos.

 

O uso do ChatGPT poderá vir a ser autorizado em residências médicas, sobretudo de medicina de família e comunidade, avaliando as queixas apresentadas por pacientes atendidos na Atenção Primária à Saúde (APS), desde que obedecidas algumas regras, como mostrar ao preceptor as respostas obtidas no ChatGPT (ou, futuramente, no Med-PaLM) acerca das orientações dadas ao paciente. Deverá ter seu uso restringido na realização de exames periódicos, porque ofereceria respostas imediatas, não permitindo a avaliação do conhecimento real do residente.

 

(*) Luiz Carlos Lobo é médico, professor aposentado da Universidade Federal do Rio de Janeiro (UFRJ), professor honoris causa da Universidade de Brasília (UnB) e consultor sênior da Universidade Aberta do SUS (UNA-SUS)/Fiocruz Brasília. É também autor do artigo Inteligência Artificial e Medicina

 

LEIA TAMBÉM