DELI | NATISNI | E-NASLOV
Moje izkušnje v medicini mi omogočajo, da ločim med resnično inovacijo in subtilno prerazvrstitvijo, ki temeljito spremeni prakso, hkrati pa se zdi nespremenjena. Umetna inteligenca je v zadnjem času pritegnila precejšnjo pozornost, vključno s široko razširjeno trditvijo, da je umetna inteligenca v Združenih državah Amerike "zakonito pooblaščena za opravljanje zdravniške dejavnosti". Če to trditev razlagamo dobesedno, je netočna. Noben zdravniški odbor ni licenciral stroja. Noben algoritem ni prisegel, sprejel fiduciarne dolžnosti ali prevzel osebne odgovornosti za škodo pacientov. Noben robotski zdravnik ne odpira klinike, ne zaračunava zavarovalnicam in ne stoji pred poroto za malomarnost.
Vendar pa se s tem opažanjem spregleda širše vprašanje. Pravni koncepti odgovornosti se trenutno na novo opredeljujejo, pogosto brez ozaveščenosti javnosti.
V teku je pomembna preobrazba, ki upravičuje več kot le refleksno zavračanje ali nekritično tehnološko navdušenje. Trenutni razvoj ni licenciranje umetne inteligence kot zdravnika, temveč postopna erozija osrednje meje medicine: notranje povezave med klinično presojo in človeško odgovornostjo. Klinična presoja vključuje sprejemanje premišljenih odločitev, prilagojenih edinstvenim potrebam in okoliščinam vsakega pacienta, kar zahteva empatijo, intuicijo in globoko razumevanje medicinske etike.
Človeška odgovornost se nanaša na odgovornost, ki jo ponudniki zdravstvenih storitev prevzemajo za te odločitve in njihove izide. Ta erozija ni posledica dramatične zakonodaje ali javne razprave, temveč se dogaja tiho prek pilotnih programov, regulativnih reinterpretacij in jezika, ki namerno zakriva odgovornost. Ko se ta meja razblini, se medicina preoblikuje na načine, ki jih je težko obrniti nazaj.
Glavna skrb ni, ali lahko umetna inteligenca ponovno izda recepte ali odkrije nenormalne laboratorijske rezultate. Medicina že dolgo uporablja orodja, zdravstveni delavci pa na splošno pozdravljajo pomoč, ki zmanjšuje administrativne naloge ali izboljšuje prepoznavanje vzorcev. Pravo vprašanje je, ali je mogoče medicinsko presojo – odločanje o pravih dejanjih, pacientih in tveganjih – obravnavati kot računalniško generiran rezultat, ločen od moralne odgovornosti. Zgodovinsko gledano so prizadevanja za ločitev presoje od odgovornosti pogosto povzročala škodo, ne da bi prevzela odgovornost.
Nedavni razvoj dogodkov pojasnjuje izvor trenutne zmede. V več državah omejeni pilotni programi zdaj omogočajo sistemom, ki jih poganja umetna inteligenca, pomoč pri podaljševanju receptov za stabilna kronična stanja v okviru ozko opredeljenih protokolov. Na zvezni ravni je predlagana zakonodaja preučila, ali bi se umetna inteligenca lahko kvalificirala kot "zdravnik" za posebne zakonske namene, če je ustrezno regulirana. Te pobude so običajno predstavljene kot pragmatični odgovori na pomanjkanje zdravnikov, zamude pri dostopu in upravno neučinkovitost. Čeprav nobena od njih izrecno ne označuje umetne inteligence kot zdravnika, skupaj normalizirajo bolj zaskrbljujočo predpostavko, da se lahko zdravniški ukrepi izvajajo brez jasno prepoznavnega človeškega odločevalca.
V praksi je ta razlika temeljna. Medicina ni opredeljena z mehanskim izvajanjem nalog, temveč z dodelitvijo odgovornosti, ko so izidi neugodni. Pisanje recepta je preprosto; prevzemanje odgovornosti za njegove posledice – zlasti ob upoštevanju komorbidnosti, socialnega konteksta, pacientovih vrednot ali nepopolnih informacij – je veliko bolj zapleteno. Skozi mojo kariero je bila ta odgovornost nenehno na človeku, ki ga je bilo mogoče spraševati, izzivati, popraviti in ga poklicati na odgovornost. Ko dr. Smith naredi napako, družina ve, na koga se mora obrniti, kar zagotavlja neposredno povezavo s človeško odgovornostjo. Noben algoritem, ne glede na svojo sofisticiranost, ne more izpolniti te vloge.
Primarno tveganje ni tehnološko, temveč regulativno in filozofsko. Ta prehod predstavlja premik od etike vrlin k proceduralizmu. Ko zakonodajalci in institucije na novo opredelijo medicinsko odločanje kot funkcijo sistemov in ne kot osebnih dejanj, se spremeni moralni okvir medicine. Odgovornost postane razpršena, škodo je težje pripisati, odgovornost pa se prenese s klinikov na procese, s presoje na upoštevanje protokola. Ko se neizogibno pojavijo napake, prevladujoča razlaga postane, da je »sistem sledil ustaljenim smernicam«. Priznavanje tega prehoda pojasnjuje premik od individualiziranega etičnega odločanja k mehaniziranemu upoštevanju postopkov.
Ta skrb ni teoretična. Sodobno zdravstvo se že sooča z izzivi, povezanimi z razvodeneno odgovornostjo. Opazil sem, da se pacienti, ki so bili prizadeti zaradi odločitev, ki jih vodijo algoritmi, izgubijo med administratorji, prodajalci in nepreglednimi modeli, brez jasnega odgovora na temeljno vprašanje: Kdo je sprejel to odločitev? Umetna inteligenca to težavo znatno pospešuje. Algoritem ne more zagotoviti moralnih razlag, izvajati zadržanosti na podlagi vesti, zavrniti dejanj zaradi etičnih pomislekov ali priznati napake pacientu ali družini.
Zagovorniki večje avtonomije umetne inteligence pogosto navajajo učinkovitost kot utemeljitev. Klinike so preobremenjene, zdravniki doživljajo izgorelost, pacienti pa pogosto čakajo mesece na oskrbo, ki bi morala trajati le nekaj minut. Ti pomisleki so upravičeni in vsak pošten zdravnik jih prepozna. Vendar pa sama učinkovitost ne upravičuje spreminjanja etičnih temeljev medicine. Sistemi, optimizirani za hitrost in obseg, pogosto žrtvujejo nianse, diskretnost in individualno dostojanstvo. Medicina se je v preteklosti tej težnji upirala s poudarjanjem, da je oskrba v osnovi odnos in ne transakcija.
Umetna inteligenca tvega, da bo ta odnos obrnila na glavo. Ko oskrbo zagotavljajo sistemi in ne posamezniki, pacient ni več zavezan k dogovoru s kliničnim zdravnikom, temveč postane del delovnega procesa. Zdravnik prevzame vlogo nadzornika stroja ali, kar je še bolj zaskrbljujoče, služi kot pravni blažilec, ki absorbira odgovornost za odločitve, ki jih ni sprejel osebno. Sčasoma klinična presoja odstopi od upoštevanja protokola, moralna odgovornost pa se postopoma zmanjšuje.
Umetna inteligenca uvaja tudi subtilnejši in nevarnejši problem: prikrivanje negotovosti. Medicina živi v dvoumnosti. Dokazi so verjetnostni. Smernice so začasne. Pacienti se le redko predstavijo kot čisti nabori podatkov. Zdravniki so usposobljeni ne le za ukrepanje, ampak tudi za oklevanje – za prepoznavanje, kdaj so informacije nezadostne, kdaj lahko intervencija povzroči več škode kot koristi ali kdaj je pravilna pot čakanje. Predstavljajte si scenarij, v katerem umetna inteligenca priporoča odpust, vendar se pacientov zakonec zdi prestrašen, kar poudarja napetost med algoritmičnim odločanjem in človeško intuicijo. Takšno trenje v resničnem svetu poudarja pomen dvoumnosti.
Sistemi umetne inteligence ne doživljajo negotovosti; ustvarjajo izhode. Ko so napačni, to pogosto počnejo z neupravičeno samozavestjo. Ta značilnost ni programska napaka, temveč inherentna značilnost statističnega modeliranja. Za razliko od izkušenih zdravnikov, ki odkrito izražajo dvom, modeli velikih jezikov in sistemi strojnega učenja ne morejo prepoznati lastnih omejitev. Ustvarijo verjetne odgovore, tudi če podatki niso zadostni. V medicini je lahko verodostojnost brez utemeljitve nevarna.
Ker so ti sistemi prej integrirani v klinične poteke dela, njihovi rezultati vse bolj vplivajo na poznejše odločitve. Sčasoma lahko zdravniki začnejo zaupati priporočilom ne zaradi njihove veljavnosti, temveč zato, ker so postala normalizirana. Presoja se postopoma preusmeri od aktivnega sklepanja k pasivnemu sprejemanju. V takih okoliščinah »človek v zanki« služi le kot simbolična zaščita.
Zagovorniki pogosto trdijo, da bo umetna inteligenca le »izboljšala« zdravnike, namesto da bi jih nadomestila. Vendar je to zagotovilo šibko. Ko umetna inteligenca pokaže povečanje učinkovitosti, ekonomski in institucionalni pritiski običajno spodbujajo večjo avtonomijo. Če lahko sistem varno ponovno izda recepte, mu bo kmalu morda dovoljeno, da jih tudi uvede. Če lahko natančno diagnosticira pogosta stanja, je nujnost zdravniškega pregleda vprašljiva. Če v nadzorovanih merilih prekaša ljudi, se toleranca do človeške variabilnosti zmanjša.
Glede na te trende je uvedba posebnih zaščitnih ukrepov bistvenega pomena. Na primer, obvezne revizije neskladij pri 5 % odločitev, ki jih vodi umetna inteligenca, bi lahko služile kot konkreten pregled, ki bi zagotavljal skladnost med priporočili umetne inteligence in človeško klinično presojo, hkrati pa bi regulatorjem in bolnišničnim upravnim odborom zagotavljale uporabne meritve za spremljanje integracije umetne inteligence.
Ta vprašanja niso zastavljena z zlonamernimi nameni; pojavljajo se naravno znotraj sistemov, osredotočenih na omejevanje stroškov in skalabilnost. Vendar pa nakazujejo prihodnost, kjer bo človeška presoja postala izjema in ne norma. V takšnem scenariju bodo posamezniki z viri še naprej prejemali človeško oskrbo, medtem ko bodo drugi usmerjeni prek avtomatiziranih procesov. Dvostopenjska medicina ne bo posledica ideologije, temveč optimizacije.
Kar ta trenutek dela še posebej negotovega, je odsotnost jasnih linij odgovornosti. Ko odločitev, ki jo vodi umetna inteligenca, škoduje pacientu, kdo je odgovoren? Ali zdravnik nominalno nadzoruje sistem? Institucija, ki ga je uvedla? Prodajalec, ki je usposobil model? Regulator, ki je odobril njegovo uporabo? Brez eksplicitnih odgovorov odgovornost izgine. In ko odgovornost izgine, kmalu sledi zaupanje.
Medicina je v osnovi odvisna od zaupanja. Pacienti zaupajo svoja telesa, strahove in pogosto tudi svoja življenja v roke zdravnikov. Tega zaupanja ni mogoče prenesti na algoritem, ne glede na njegovo dovršenost. Temelji na zagotovilu, da je prisoten človek – nekdo, ki je sposoben poslušati, se prilagajati in biti odgovoren za svoja dejanja.
Popolna zavrnitev umetne inteligence ni potrebna. Če se uporablja preudarno, lahko umetna inteligenca zmanjša administrativno breme, prepozna vzorce, ki jih človek morda ne bi mogel zaznati, in podpre klinično odločanje. Zdravnikom lahko omogoči, da več časa posvetijo oskrbi pacientov kot administrativnim nalogam. Vendar pa uresničitev te prihodnosti zahteva jasno zavezanost ohranjanju človeške odgovornosti v središču medicinske prakse.
„Človek v zanki“ mora pomeniti več kot le simboličen nadzor. Zahtevati mora, da je za vsako medicinsko odločitev odgovoren določen posameznik, da razume njeno utemeljitev in ohrani tako pooblastilo kot obveznost, da razveljavi algoritmična priporočila. Vključevati mora tudi preglednost, razložljivost in informirano soglasje pacienta, pa tudi zavezo k vlaganju v zdravnike, namesto da bi jih nadomeščali z umetno inteligenco.
Glavno tveganje ni pretirana moč umetne inteligence, temveč pripravljenost institucij, da se odpovejo odgovornosti. V prizadevanju za učinkovitost in inovacije obstaja nevarnost, da bo medicina postala tehnično napredno, administrativno poenostavljeno področje, ki pa mu bo manjkalo moralne vsebine.
Ko razmišljamo o prihodnosti, se je bistveno vprašati: Kakšnega zdravilca si predstavljamo ob postelji leta 2035? To vprašanje zahteva kolektivno moralno domišljijo in nas spodbuja k oblikovanju prihodnosti, kjer bosta človeška odgovornost in sočutna oskrba v središču medicinske prakse. Mobilizacija kolektivne dejavnosti bo ključnega pomena za zagotovitev, da napredek umetne inteligence te temeljne vrednote krepi in ne spodkopava.
Umetna inteligenca ni dobila licence za opravljanje zdravniške dejavnosti. Vendar se medicina potihoma preoblikuje okoli sistemov, ki nimajo moralne teže. Če se bo ta proces nadaljeval nenadzorovano, bomo morda nekega dne odkrili, da zdravnika ni nadomestil stroj, temveč protokol – in da ko se zgodi škoda, ni več nikogar, ki bi zanjo odgovarjal.
To ne bi bil napredek. To bi bila abdikacija.
-
Joseph Varon, dr. med. je zdravnik intenzivne nege, profesor in predsednik Independent Medical Alliance. Je avtor več kot 980 strokovno recenziranih publikacij in glavni urednik revije Journal of Independent Medicine.
Poglej vse objave