clipping: https://www.iqvia.com/blogs/2023/03/chatgpt-large-language-models-and-nlp-a-clinical-perspective
Esta é a primeira parte de uma série de duas partes que explora as potenciais oportunidades e riscos do uso do ChatGPT e grandes modelos de linguagem na área da saúde. Este blog se concentrará na perspectiva clínica, enquanto o segundo blog examinará mais de perto a tecnologia e as considerações para uso cenário de saúde. Por quase uma década, tenho me concentrado em tornar os dados coletados rotineiramente na área da saúde mais poderosos, acionáveis e utilizáveis. Dado que 80% desses dados residem em formato não estruturado – a maior parte do meu foco tem sido o uso do processamento de linguagem natural (NLP) para transformar esses dados.
Ao longo desse tempo, muitas tendências e empresas surgiram e desapareceram, à medida que a PNL amadureceu de “nicho” para “obrigatório”. As conversas com as organizações de saúde mudaram de “o que é?” para “que métodos você usaria?”.
A PNL tem sido um campo dinâmico e em evolução, mas nada interrompeu a indústria como a chegada do ChatGPT. Pela primeira vez, os feeds de mídia social são inundados com PNL, em todos os setores. Meus amigos, que na maioria das vezes lutam para entender o que eu faço (era muito mais fácil quando eu estava nas enfermarias do hospital!) Estão me enviando artigos e postagens no LinkedIn sobre o assunto, destacando o quão longe a palavra se espalhou.
Muitos potenciais interessantes e casos de uso empolgantes surgem, quase diariamente. Dada minha formação e interesse em saúde, e os algoritmos de mídia social – a maioria desses casos de uso é na área de saúde. Então, o que é real, tratável e revolucionário e o que é ruído?
Neste blog, ofereço minha perspectiva – primeiro como clínico e depois como especialista na aplicação da PNL em registros médicos.
Uma perspectiva clínica para Chat GPT
Em primeiro lugar, muito do burburinho em torno do chatGPT é sua capacidade de parecer “humano”. Nos 10 anos em que treinei e pratiquei como médico – uma coisa que era fundamental para a boa prática clínica era a importância da confiança mútua e respeito entre médico e paciente. Para o futuro previsível – isso é algo que só pode ser promovido a partir da interação entre humanos. O vínculo que um clínico estabelece com a pessoa de quem está cuidando é a chave que abre grande parte da história do paciente.
Três casos de uso em que o ChatGPT pode ajudar os médicos em seu trabalho:
Aumentando a criação de documentos administrativos.
O esgotamento clínico é uma ameaça real para o sistema de saúde na maioria dos países, sendo que grande parte desse esgotamento é causado por tarefas não clínicas, como redigir cartas de apelação para seguradoras. Qualquer aplicação de IA para superar o esgotamento clínico é, sem dúvida, uma coisa boa. Com algumas instruções cuidadosamente selecionadas para o ChatGPT sobre a condição do paciente, os médicos podem revisar e ler uma carta de autoria completa, economizando um tempo significativo. Já existem exemplos disso acontecendo – embora não acredite nessas referências! (Veja abaixo)
Melhorar o acesso do paciente às informações de saúde.
Os chatbots cresceram em popularidade nos últimos anos, usados na área da saúde como o primeiro passo para gerenciar as perguntas dos pacientes sobre seu plano de saúde ou sua condição. A sofisticação adicional que o ChatGPT oferece em relação aos chatbots tradicionais torna esta uma área de potencial significativo.
Melhorar a documentação clínica.
Esta é certamente uma tarefa mais sutil e desafiadora – mas, brincando – o ChatGPT faz um trabalho muito bom ao criar resumos realistas de pacientes. Se os médicos puderem inserir as principais descobertas extraídas do histórico e dos exames do paciente e pedir ao chatGPT para criar o resumo do encontro, haverá a oportunidade para a IA lembrar o médico de outras perguntas relevantes a serem feitas que podem aumentar a especificidade de um diagnóstico. Este assistente de documentação inteligente pode revolucionar as atividades de melhoria da documentação clínica, que são uma parte vital do ciclo de receita dos provedores, garantindo que eles permaneçam no lado certo dos livros de balanço. Isso também teria um impacto adicional na redução da carga administrativa de recusas de sinistros – já que a documentação e as evidências de apoio estariam presentes com mais frequência.
As desvantagens do ChatGPT para a área da saúde
Desinformação e precisão
Pergunte ao ChatGPT praticamente qualquer coisa – e ele sempre responderá com 2 características: articulação e convicção. E pelo que eu e muitos outros vimos – o ChatGPT dá uma resposta errada perfeitamente articulada com tanta convicção quanto dá a resposta certa. Isso é preocupante em qualquer setor – e bastante assustador na área da saúde. A mistura bizarra de excitação e medo que estou sentindo sobre o ChatGPT foi muito bem resumida pelo Dr. Faust neste artigo. Em seus experimentos com ChatGPT – a IA fabricou uma relação causal entre a pílula anticoncepcional oral e a costocondrite, uma causa comum de dor no peito. Quando questionado sobre evidências – fabricou uma publicação, usando uma revista credível e autores reais, para justificar a sua informação. O artigo fabricado era uma mentira perfeita e convincente e uma ilustração tão boa quanto eu vi que mostra que ainda não estamos nem perto da panaceia. O ChatGPT destacou a enorme importância da revisão especializada quando a IA é usada para automatizar tarefas anteriormente humanas. Como a revisão humana e a PNL estão sendo usadas atualmente nas melhores práticas, será abordado em meu próximo blog nesta série de duas partes.
Potencial para viés
Com o ChatGPT treinado na “internet” – ele está inerentemente sujeito aos vieses que permeiam essa fonte de dados. Finalmente, há um grande impulso nos cuidados de saúde em direção à equidade na saúde – essa é a noção de que todos têm uma oportunidade justa e equitativa de atingir seu mais alto nível de saúde. Infelizmente, os vieses atuais que existem na literatura médica, no estudo da doença e na documentação das melhores práticas permeiam a Internet. Portanto, quando o ChatGPT recebe perguntas médicas – suas respostas refletem isso. O exemplo mais proeminente disso, circulando nas mídias sociais, é a resposta do ChatGPT à definição de um bom cientista com base em raça e gênero. Os resultados são alarmantes. Devo acrescentar que, ao tentar repetir esses testes – notei que agora há uma resposta do chatGPT para dizer que prever a probabilidade de uma pessoa ser um bom cientista com base em raça e gênero é antiético – uma resposta muito melhor. Eu testei isso um pouco mais e pedi ao chat GPT para escrever um roteiro que usasse gênero e etnia como preditores de função renal. Recebi a mesma resposta antiética acima. Nesse caso, os filtros colocados não estão ajudando.
Privacidade
O ChatGPT não foi treinado em dados reais de pacientes – portanto, falta em termos de contexto médico real. Para que o poder do ChatGPT seja realizado na área da saúde, ele precisará ser treinado em dados reais de saúde. Isso representa preocupações significativas com a privacidade e o compartilhamento e reutilização de dados identificáveis do paciente. A desidentificação apropriada de volumes adequados de dados médicos de texto livre para treinar esses modelos não é uma tarefa insignificante. E com a forma como o ChatGPT gera suas respostas – é muito importante que nenhuma informação de saúde protegida seja apresentada aos usuários finais.
Como você pode ver, embora haja potencial para o ChatGPT ajudar os médicos a tornar seu trabalho mais eficiente, ainda há um longo caminho a percorrer para que essa tecnologia seja uma verdadeira virada de jogo no espaço da saúde.