Sztuczna inteligencja nie może zastąpić lekarza

Musi pozostać podporządkowana jego klinicznemu rozumowaniu.

Zbiór podstawowych zasad etycznych dotyczących wykorzystania sztucznej inteligencji (AI) w praktyce medycznej został opublikowany 11 listopada, na zakończenie międzynarodowego kongresu zorganizowanego przez Światową Federację Stowarzyszeń Lekarzy Katolickich (FIAMC) i Papieską Akademię Życia (PAV), który odbył się w Kurii Generalnej Towarzystwa Jezusowego w Rzymie. Wykorzystujmy nowe technologie, aby poprawić ocenę kliniczną, zwiększyć dokładność diagnostyki i zoptymalizować wyniki leczenia pacjentów.

Ks. prałat Renzo Pegoraro, prezes PAV, i profesor Bernard Ars, prezes FIAMC, stwierdzili, że zdumienie niezwykłymi rezultatami osiągniętymi dzięki rozwojowi systemów sztucznej inteligencji nie może być oddzielone od obaw o wpływ tych samych rezultatów na relacje osobiste i społeczne. Przypominając wytyczne przedstawione już przez papieża Franciszka w tym obszarze, zgodnie z którymi „przyrodzona godność każdego człowieka i braterstwo, które jednoczy nas jako członków jednej rodziny ludzkiej, muszą stanowić podstawę rozwoju nowych technologii i służyć jako niepodważalne kryteria ich oceny przed ich zastosowaniem”. W komunikacie końcowym konferencji przypomniano, że w dziedzinie opieki zdrowotnej „niezbędne jest, aby sztuczna inteligencja była narzędziem wspomagającym, które usprawnia ocenę kliniczną, wspiera dokładność diagnostyczną i poprawia wyniki leczenia pacjentów, nigdy nie zastępując kompetencji, empatii ani odpowiedzialności lekarza”.
Nadzór, osąd kliniczny, przejrzystość

PAV i FIAMC podkreślają, że sztuczna inteligencja musi pozostać podporządkowana klinicznemu rozumowaniu lekarza: „Decyzje dotyczące leczenia pacjentów i związany z nimi ciężar odpowiedzialności muszą zawsze pozostawać w gestii ludzi i nigdy nie powinny być delegowane do sztucznej inteligencji”. Lekarze, korzystając ze sztucznej inteligencji, muszą uważać, aby „nie dać się zahipnotyzować pokusie technologicznych rezultatów”.

Skomentowano również kwestię przejrzystości i interpretacji: „Lekarze powinni być w stanie zrozumieć i wyjaśnić, w jaki sposób generowane są zalecenia oparte na sztucznej inteligencji. Algorytmy typu `czarna skrzynka`, którym brakuje możliwości interpretacji, ryzykują podważenie zaufania i odpowiedzialności klinicznej, prowadząc do utraty kompetencji i delegowania odpowiedzialności”.
Równość i poufność

Odpowiedzialni za opiekę zdrowotną są również zobowiązani do zachowania najwyższej czujności w odniesieniu do ryzyka, że ​​niekompletne lub zniekształcone dane mogą utrwalać nierówności. Ponownie, w celu zapewnienia równości, stwierdza się, że sztuczna inteligencja nie powinna pogłębiać przepaści między środowiskami bogatymi w zasoby a ubogimi w zasoby. Wszyscy pacjenci, niezależnie od położenia  geograficznego czy statusu społeczno-ekonomicznego, muszą mieć możliwość korzystania z postępu technologicznego: „Optymalizacja zasobów oznacza ich etyczne i braterskie wykorzystanie, bez karania najsłabszych”. Zaleca się promowanie inkluzywnych i reprezentatywnych danych w rozwoju sztucznej inteligencji.

Środowisko medyczne ostrzega się przed wykorzystywaniem danych pacjentów w aplikacjach AI: muszą one być zgodne z normami prawnymi i etycznymi. Poufność zawodowa musi być również stosowana w kontekście AI. Ponadto, PAV i FIAMC stwierdzają, że „istotne jest rozróżnienie, kiedy błąd można przypisać lekarzowi z powodu niewłaściwego użycia tych systemów, a kiedy jest on wyłącznie przypisany szpitalowi zarządzającemu i wdrażającemu narzędzie lub firmie AI”.
Prywatność, odpowiedzialność

Techniki numeryczne oparte na obliczeniach, jakkolwiek skuteczne by nie były, mają wiele ograniczeń epistemologicznych i logicznych. Dlatego, jak podsumowują ks. prałat Pegoraro i prof. Ars, nie mogą one zastąpić wszystkich niuansów ludzkiego myślenia i wszystkich wymiarów relacji międzyludzkich. Niektórych głębokich wymiarów opieki nad pacjentem nie da się w rzeczywistości zastąpić zoptymalizowanymi procedurami numerycznymi i autonomicznymi robotami. Podstawową zasadą przewodnią jest to, że „pacjent nie jest problemem do rozwiązania (za pomocą AI lub innych technologii), ale tajemnicą, która objawia samego Chrystusa”.

«« | « | 1 | » | »»
Wiara_wesprzyj_750x300_2019.jpg

Archiwum informacji

niedz. pon. wt. śr. czw. pt. sob.
26 27 28 29 30 31 1
2 3 4 5 6 7 8
9 10 11 12 13 14 15
16 17 18 19 20 21 22
23 24 25 26 27 28 29
30 1 2 3 4 5 6