Março de 2025 – Vol. 30 – Nº 3

Apresentação e considerações sobre Bioética e Inteligência
artificial a partir do Editorial do American Journal of Bioethics (Kayte Spector-Bagdady & Alex John London)

Revista Americana de Bioética 2025, Vol. 25, no. 3, 1– Kayte Spector-Bagdadya e Alex John Londonba Universidade de Michigan; Universidade Bcarnegie Mellon)

Considerações prévias

O documento discute a relação entre bioética e inteligência artificial (IA) na
medicina, destacando a necessidade de um engajamento normativo mais
profundo para separar a autonomia da beneficência e da justiça na prática
médica responsável. A implementação de sistemas de IA e aprendizado de
máquina (AM) na medicina exige que a bioética examine cuidadosamente os
objetivos e valores refletidos em cada chamada adicional para divulgação.
O consentimento informado é uma ferramenta moralmente transformadora que
permite ações que de outra forma seriam ilegais ou antiéticas, mas não pode
absolver todos os riscos e encargos. A suposição de que os pacientes têm
poder para avaliar ou aliviar deficiências em tecnologias de IA é equivocada. A
prestação de cuidados médicos envolve muitas partes interessadas com
inúmeras obrigações legais e éticas, e a capacidade de um sistema de saúde
de fornecer cuidados seguros, eficientes e equitativos é uma questão de
beneficência e justiça.
O consentimento informado não pode legitimar padrões probatórios frouxos e a
implantação precipitada de sistemas de IA de valor clínico questionável. A
natureza transformadora do consentimento informado reside em sua
capacidade de alinhar escolhas clínicas com os valores do paciente e o
respeito fundamental à sua personalidade individua.
O documento menciona vários riscos associados à implementação de sistemas
de inteligência artificial (IA) na medicina. Aqui estão alguns dos principais riscos
destacados:

  1. Deficiências em Tecnologias de IA: A suposição de que os pacientes
    têm poder para avaliar ou aliviar deficiências em tecnologias de IA é
    equivocada. Isso significa que os pacientes podem não estar em posição
    de identificar ou corrigir falhas nas tecnologias de IA utilizadas em seus
    cuidados médicos.
  2. Padrões Probatórios Frouxos: O consentimento informado não pode
    legitimar padrões probatórios frouxos e a implantação precipitada de
    sistemas de IA de valor clínico questionável. Isso indica que a
    implementação de IA na medicina deve ser baseada em evidências
    rigorosas para garantir sua eficácia e segurança.
  3. Riscos Materiais e Benefícios Potenciais: A intenção original do
    consentimento informado era garantir que o paciente entendesse as
    opções disponíveis para cuidados médicos, bem como informações
    suficientes sobre riscos materiais e benefícios potenciais para fazer uma
    escolha alinhada aos seus valores considerados. No entanto, a
    complexidade das informações pode dificultar a compreensão completa
    por parte dos pacientes.
  4. Preocupações dos Pacientes: Muitos pacientes relatam preocupações
    sobre o uso de IA na assistência médica. Essas preocupações podem
    variar desde a comunicação com chatbots de saúde mental até alertas
    automatizados de IA incorporados aos prontuários médicos eletrônicos.
  5. O documento discute a relação entre bioética e inteligência artificial (IA) na
    medicina, destacando a necessidade de um engajamento normativo mais
    profundo para separar a autonomia da beneficência e da justiça na prática médica
    responsável1. A implementação de sistemas de IA na medicina exige que a
    bioética examine cuidadosamente os objetivos e valores refletidos em cada
    chamada adicional para divulgação.
  6. O consentimento informado é uma ferramenta moralmente transformadora que
    permite ações que de outra forma seriam ilegais ou antiéticas, mas não pode
    absolver todos os riscos e encargos. A suposição de que os pacientes têm poder
    para avaliar ou aliviar deficiências em tecnologias de IA é equivocada. A
    prestação de cuidados médicos envolve muitas partes interessadas com inúmeras
    obrigações legais e éticas, e a capacidade de um sistema de saúde de fornecer
    cuidados seguros, eficientes e equitativos é uma questão de beneficência e
    justiça.

Editorial do AJOB

A divulgação como absolvição na medicina: destrinchando a
autonomia da beneficência e da justiça na inteligência artificial
Kayte Spector-Bagdady  & Alex John London
Revista Americana de Bioética 2025, Vol. 25, no. 3, 1–lKayte Spector-
Bagdadya e Alex John Londonbauniversidade de Michigan; Universidade
Bcarnegie Mellon

INTRODUÇÃO

A pressa em implementar sistemas de inteligência artificial (IA) e aprendizado
de máquina (AM) na medicina destaca a necessidade de a bioética aprofundar
seu engajamento normativo para separar a autonomia da beneficência e da
justiça na prática médica responsável. Uma das razões pelas quais o
consentimento informado é uma ferramenta tão única é sua natureza
moralmente transformadora. Ações que de outra forma seriam ilegais ou
antiéticas são tornadas permitidas pelo fornecimento de consentimento livre e
informado. Mas o consentimento não é uma panaceia para absolver todos os

riscos e encargos. A proliferação de sistemas de IA/ML destaca que cada
chamada adicional para divulgação justifica uma profunda introspecção de
objetivos e de quais valores eles refletem (Hurley et al. 2025). Por exemplo,
embora o consentimento informado possa ser apropriado quando há uma
escolha de usar ou não uma ferramenta de IA no atendimento clínico, não
podemos deixar que a deferência à autonomia substitua padrões rigorosos —
baseados em beneficência e justiça — que garantam a implantação segura,
eficaz e equitativa da IA ​​na medicina. Deficiências em tecnologias de IA que
não atendem a esses padrões não podem ser absolvidas por meio do processo
de consentimento informado. A suposição de que os pacientes têm poder para
avaliar ou aliviar tais deficiências é equivocada. Embora muito tenha sido
escrito sobre a incapacidade do consentimento informado de suportar seu
crescente fardo transformador (Grady et al. 2017), é necessária uma
exploração mais aprofundada da divisão apropriada do trabalho moral entre
valores éticos no uso de IA na prática clínica.


AUTONOMIA E CONSENTIMENTO INFORMADO


A intenção original do consentimento informado era garantir que o paciente
entendesse as opções disponíveis para cuidados médicos, bem como
informações suficientes sobre riscos materiais e benefícios potenciais para
fazer uma escolha alinhada aos seus valores considerados. A compreensão de
“material” é complexa em escopo e teoria, mas Faden e Beauchamp
ofereceram a definição de informação que permitiria a um paciente “com base
em seus valores, desejos e crenças pessoais, agir com autonomia substancial”
(Faden e Beauchamp 1986, 307). Ou, como a jurisprudência resumiu, “as
informações que o médico sabe ou deveria saber seriam consideradas
significativas por uma pessoa razoável na posição do paciente ao decidir
aceitar ou rejeitar um procedimento médico recomendado” (Wheeldon v.
Madison 1985). Os pacientes também às vezes expressam interesses válidos
em escolher o ambiente de uma clínica em geral, se tiverem opções (por
exemplo, um centro médico acadêmico, atendimento concordante com o
gênero ou uma instituição religiosamente afiliada). Existe uma diferenciação
importante, no entanto, entre escolhas que são individualmente sensíveis à
preferência versus aquelas que se aplicam a todos os participantes dentro de
um contexto. Como argumenta Schuck: “Quanto mais privada for a escolha —
isto é, quanto mais ela diz respeito à integridade dos próprios projetos e à
autoconcepção do indivíduo e quanto menos ela afeta diretamente os outros —
mais robusto esse direito [à autonomia] deve ser” (Schuck 1994). Mas muitas
decisões na medicina ficam abaixo dessa linha d’água metafórica. Seu status
moral e legal não é eticamente justificado pelo respeito à autonomia do
paciente, mas sim pela maneira como as partes interessadas equilibram uma
gama de valores legítimos relacionados à beneficência e à justiça.


BENEFICÊNCIA E JUSTIÇA E CONSENTIMENTO INFORMADO

À medida que a prestação de cuidados médicos se tornou mais complexa,
mais está sendo divulgado durante o consentimento informado sobre a prática
e a institucionalização da medicina em geral. Benefícios, expectativas de
segurança e divulgações obrigatórias pelo estado, entre outros, são padrões
antes mesmo de um paciente considerar uma intervenção prescrita. Há muitos
problemas com essa abordagem (Spector-Bagdady 2020). Como os
formulários se tornaram tão longos e complexos, os pacientes raramente os
entendem (Grady et al. 2017). Além disso, essas divulgações pró-forma são
geralmente oferecidas como “consentimento de porta de entrada”: um contrato
de adesão em que a única opção dos pacientes é aceitar — ou não receber
seus cuidados na clínica (Spector-Bagdady 2023). O tipo de consentimento
sofre de várias “patologias”, incluindo o fato de ser coagido e muitas vezes
involuntário (Richards e Hartzog 2019). Claro, o consentimento informado
sempre será limitado e compreendido dentro das características de um
contexto específico (Schuck 1994). A prestação de cuidados médicos é uma
divisão de trabalho que envolve muitas partes interessadas com inúmeras
obrigações legais e éticas. O atendimento clínico ocorre dentro de uma
instituição que deve atender às necessidades de pacientes individuais e
também de sua comunidade de pacientes em geral. No entanto, questões
como padrões para compra de equipamentos, práticas estéreis para a sala de
cirurgia e resposta a relatórios de risco de pacientes não são adequadamente
fundamentadas normativamente na autonomia individual. Tais características
não devem ser cegas às preferências do paciente, mas também não podem ser
organizadas somente sobre elas, dada sua importância para o funcionamento
básico do sistema. Assim, à medida que aumentam os pedidos para adicionar
divulgações adicionais ao consentimento, também aumenta a urgência de
afinar a linha entre riscos e benefícios ambiguamente materiais de máquinas
médicas que são, ou não, de outra forma permitindo autonomia. A capacidade
de um sistema de saúde de fornecer cuidados seguros, eficientes e equitativos
é uma questão de beneficência e justiça (Londres 2021). Se os serviços de
saúde forem deficientes em tais atributos, o consentimento informado não pode
— e não deve — tornar sua provisão moralmente permissível.


IA E CONSENTIMENTO INFORMADO

Muitos pacientes relatam
preocupações sobre IA na assistência médica (Robertson et al. 2023). Algumas
dessas preocupações estão relacionadas a usos que são sensíveis à
preferência e envolvem livre escolha, como se um paciente se comunica com
um chatbot de saúde mental como um rastreador de depressão antes de
marcar uma consulta terapêutica. Outros são diferentes, como avisos
automatizados de IA incorporados ao prontuário médico eletrônico que
identificam pacientes com alto risco de desenvolver séptico. A última aplicação
da IA ​​é uma característica do ambiente de cuidados clínicos da qual nem o
paciente nem o clínico podem normalmente optar por não participar (Binkley e
Pilkington 2023). Divulgar seu uso aos pacientes não diminui os padrões para

sua implantação precisa, confiável e eficaz. Cohen observou que, legalmente,
uma das situações em que a obrigação de divulgar o uso da IA ​​é
provavelmente mais alta é “quando o médico não tem uma boa garantia
epistêmica para acreditar que a recomendação de IA/ML está correta” (Cohen
2020). Isso faz sentido para um padrão de consentimento informado baseado
no paciente, em que um médico é legalmente obrigado a divulgar informações
que seriam consideradas materiais por um paciente afetado — aparentemente
para aumentar a autonomia (Canterbury v. Spence 1972). Certamente, um
paciente razoável consideraria o uso de uma ferramenta de diagnóstico sem
evidências de precisão ou confiabilidade relevante para sua decisão de
depender ou não dela. Nosso ponto é que, eticamente, solicitar consentimento
para um uso de IA que o médico tem razão crível para acreditar que é falho
conflita o papel da autonomia com beneficência e justiça e não transforma
moralmente seu uso. Tanto no caso do chatbot de saúde mental quanto do
alerta de sepse, se um sistema de saúde está justificado em incorporar ou
oferecer ferramentas de IA no ambiente clínico depende fundamentalmente se
a evidência de apoio é suficiente (McCradden et al. 2023). Deixando de lado as
melhores práticas para divulgação de qualquer uso, argumentamos que, uma
vez que a segurança, eficácia e equidade tenham sido estabelecidas, somente
então é apropriado diferenciar entre as escolhas com as quais os pacientes
devem consentir versus aquelas que estão inseridas no ambiente clínico e
afetam o funcionamento do sistema de saúde para muitos pacientes. A primeira
é uma oportunidade para o paciente — com as informações necessárias sobre
riscos materiais, benefícios e alternativas — fazer uma escolha livre que reflita
seus valores (London e Heidari, 2024). O segundo deve aderir a padrões
rigorosos para melhorar a saúde da comunidade de pacientes em geral. É
eticamente crítico não conflitar os dois — inserir consentimento no papel
apropriado de beneficência e justiça ameaça a divisão legítima do trabalho
moral na medicina. O consentimento informado não pode legitimar padrões
probatórios frouxos e a implantação precipitada de sistemas de IA de valor
clínico questionável. CONCLUSÃO A natureza transformadora do
consentimento informado reside em sua capacidade de alinhar escolhas
clínicas com os valores do paciente e o respeito fundamental à sua
personalidade individual. Ferramentas de IA estão disponíveis faixa de
aplicações na medicina — algumas das quais necessariamente se alinham
com as capacidades do consentimento informado e outras que dependem de
valores diferentes. À medida que avaliamos, integramos, desafiamos e
habilitamos novas tecnologias para aumentar a autonomia do paciente,
devemos fazê-lo com a consciência do escopo apropriado da autonomia.
Permanece um papel fundamental e contínuo de beneficência e justiça na
prestação de cuidados clínicos para garantir que esses princípios sejam
simbióticos em vez de antagônicos.

DECLARAÇÃO DE DIVULGAÇÃO


Nenhum potencial conflito de interesses foi relatado pelo(s) autor(es).

FINANCIAMENTO

Prof. Spector é apoiado pelo National Center for Advancing
Translational Sciences (UL1TR002240, R01TR004244), pelo National Institute
on Aging (U54AG084520) e pelo Greenwall Foundation Faculty Scholars
Program. O Dr. London é apoiado pelos EUA. National Science Foundation
(IIS2112633).ORCIDKayte Spector-Bagdady http://orcid.org/0000-0002-5851-
6224


REFERÊNCIAS


Binkley, C. E., e B. C. Pilkington. 2023. Consentimento informado para
colaboração entre clínico e IA e compartilhamento de dados de pacientes:
substantivo, ilusório ou ambos. Revista Americana de Bioética 23 (10):83–5.
doi: 10.1080/15265161.2023.2250289.
Canterbury v. Spence (Esquadrão Suicida) 1972. 464 F.2d. 772-782 d.C.
Cir.Cohen, I. G. 2020. Consentimento informado e inteligência artificial médica:
O que dizer ao paciente? The Georgetown Law Journal 108 (1425):1425–69.
Faden, R. R. e T. L. Beauchamp. 1986. Uma história e teoria do consentimento
informado. Nova York: Oxford University Press.
Grady, C., S. R. Cummings, M. C. Rowbotham, M. V. McConnell, E. A. Ashley e
G. Kang. 2017. A face mutável do consentimento informado. Revista de
Medicina da Nova Inglaterra 376 (9):e43–867. doi: 10.1056/NEJMra1603773.
Hurley, M., B. Lang, K. Kostick-Quenet, J. Smith e J. Blumenthal-Barby. 2025.
Consentimento do paciente e o direito à informação e explicação dos sistemas
de IA usados ​​na assistência à saúde. The American Journal of Bioethics 25
(3):102–114. doi:10.1080/15265161.2024.2399828.
London, A. J. 2021. Para o bem comum: Fundamentos filosóficos da ética em
pesquisa. Oxford: Oxford University Press.Londres,
A. J., e H. Heidari. 2024. Inteligência benéfica: uma abordagem de capacidade
para modelar benefícios, assistência e falhas morais associadas por meio
de sistemas de IA. Mentes e Máquinas 34 (4):41. doi: 10.1007/s11023-024-
McCradden, M. D., S. Joshi, J. A. Anderson e A. J.London. 2023. Uma
estrutura normativa para inteligência artificial como um sistema
sociotécnico em saúde. Padrões4 (11):100864. doi:
10.1016/j.patter.2023.100864.
B. Richards, N., e W. Hartzog. 2019. As patologias do consentimento digital.
Washington University Law Review 96(6):1461–503.Robertson, C.,
C. A. Woods, K. Bergstrand, J. Findley, C. Balser e M. J. Slepian. 2023.
Atitudes diversas de pacientes em relação à inteligência artificial (IA) no
diagnóstico. PLOS Saúde Digital2 (5):e0000237. doi:
10.1371/journal.pdig.0000237.

D. Schuck, P. H. 1994. Repensando o consentimento informado. The YaleLaw
Journal 103 (4):899–959.
E. Spector-Bagdady, K. 2020. Os hospitais devem agir agora para notificar os
pacientes sobre o uso de seus dados e bioespecíficos em pesquisas.
Medicina Natural 26 (3):306–8. doi: 10.1038/s41591-020-0795-6.
F. Spector-Bagdady, K. 2023. ‘O consentimento não é escalável’: expondo as
tensões no equilíbrio entre a autonomia do paciente e o benefício público
na comercialização de bioespécimes. Revista de Direito, Medicina e Ética
51 (2):437–9. doi: 10.1017/jme.2023.74.
G. Wheeldon v. Madison. 374 NW2d 367 (DP 1985).

Similar Posts