RESUMO
Os grandes modelos de linguagem (Large Language Models - LLMs) estão a ser integrados nos sistemas de saúde; mas estes modelos podem recapitular a medicina prejudicial baseada na raça. O objetivo deste estudo é avaliar se quatro grandes modelos de linguagem (LLMs) disponíveis comercialmente propagam conteúdo prejudicial, impreciso e baseado em raça ao responder a oito cenários diferentes que verificam a existência de medicina baseada em raça ou equívocos generalizados em torno de raça. As perguntas foram derivadas de discussões entre quatro médicos especialistas e de trabalhos anteriores sobre equívocos médicos baseados em raça, acreditados por estagiários de medicina. Avaliamos quatro grandes modelos de linguagem com nove questões diferentes que foram interrogadas cinco vezes cada uma, com um total de 45 respostas por modelo. Todos os modelos tiveram exemplos de perpetuação da medicina baseada na raça em suas respostas. Os modelos nem sempre foram consistentes em suas respostas quando a mesma pergunta foi feita repetidamente. Os LLMs estão sendo propostos para uso no ambiente de saúde, com alguns modelos já conectados a sistemas de registros eletrônicos de saúde. No entanto, este estudo mostra que, com base nas nossas descobertas, estes LLMs podem potencialmente causar danos ao perpetuar ideias racistas e desmascaradas.
Nenhum comentário:
Postar um comentário