Musi pozostać podporządkowana jego klinicznemu rozumowaniu.
Zbiór podstawowych zasad etycznych dotyczących wykorzystania sztucznej inteligencji (AI) w praktyce medycznej został opublikowany 11 listopada, na zakończenie międzynarodowego kongresu zorganizowanego przez Światową Federację Stowarzyszeń Lekarzy Katolickich (FIAMC) i Papieską Akademię Życia (PAV), który odbył się w Kurii Generalnej Towarzystwa Jezusowego w Rzymie. Wykorzystujmy nowe technologie, aby poprawić ocenę kliniczną, zwiększyć dokładność diagnostyki i zoptymalizować wyniki leczenia pacjentów.
Ks. prałat Renzo Pegoraro, prezes PAV, i profesor Bernard Ars, prezes FIAMC, stwierdzili, że zdumienie niezwykłymi rezultatami osiągniętymi dzięki rozwojowi systemów sztucznej inteligencji nie może być oddzielone od obaw o wpływ tych samych rezultatów na relacje osobiste i społeczne. Przypominając wytyczne przedstawione już przez papieża Franciszka w tym obszarze, zgodnie z którymi „przyrodzona godność każdego człowieka i braterstwo, które jednoczy nas jako członków jednej rodziny ludzkiej, muszą stanowić podstawę rozwoju nowych technologii i służyć jako niepodważalne kryteria ich oceny przed ich zastosowaniem”. W komunikacie końcowym konferencji przypomniano, że w dziedzinie opieki zdrowotnej „niezbędne jest, aby sztuczna inteligencja była narzędziem wspomagającym, które usprawnia ocenę kliniczną, wspiera dokładność diagnostyczną i poprawia wyniki leczenia pacjentów, nigdy nie zastępując kompetencji, empatii ani odpowiedzialności lekarza”.
Nadzór, osąd kliniczny, przejrzystość
PAV i FIAMC podkreślają, że sztuczna inteligencja musi pozostać podporządkowana klinicznemu rozumowaniu lekarza: „Decyzje dotyczące leczenia pacjentów i związany z nimi ciężar odpowiedzialności muszą zawsze pozostawać w gestii ludzi i nigdy nie powinny być delegowane do sztucznej inteligencji”. Lekarze, korzystając ze sztucznej inteligencji, muszą uważać, aby „nie dać się zahipnotyzować pokusie technologicznych rezultatów”.
Skomentowano również kwestię przejrzystości i interpretacji: „Lekarze powinni być w stanie zrozumieć i wyjaśnić, w jaki sposób generowane są zalecenia oparte na sztucznej inteligencji. Algorytmy typu `czarna skrzynka`, którym brakuje możliwości interpretacji, ryzykują podważenie zaufania i odpowiedzialności klinicznej, prowadząc do utraty kompetencji i delegowania odpowiedzialności”.
Równość i poufność
Odpowiedzialni za opiekę zdrowotną są również zobowiązani do zachowania najwyższej czujności w odniesieniu do ryzyka, że niekompletne lub zniekształcone dane mogą utrwalać nierówności. Ponownie, w celu zapewnienia równości, stwierdza się, że sztuczna inteligencja nie powinna pogłębiać przepaści między środowiskami bogatymi w zasoby a ubogimi w zasoby. Wszyscy pacjenci, niezależnie od położenia geograficznego czy statusu społeczno-ekonomicznego, muszą mieć możliwość korzystania z postępu technologicznego: „Optymalizacja zasobów oznacza ich etyczne i braterskie wykorzystanie, bez karania najsłabszych”. Zaleca się promowanie inkluzywnych i reprezentatywnych danych w rozwoju sztucznej inteligencji.
Środowisko medyczne ostrzega się przed wykorzystywaniem danych pacjentów w aplikacjach AI: muszą one być zgodne z normami prawnymi i etycznymi. Poufność zawodowa musi być również stosowana w kontekście AI. Ponadto, PAV i FIAMC stwierdzają, że „istotne jest rozróżnienie, kiedy błąd można przypisać lekarzowi z powodu niewłaściwego użycia tych systemów, a kiedy jest on wyłącznie przypisany szpitalowi zarządzającemu i wdrażającemu narzędzie lub firmie AI”.
Prywatność, odpowiedzialność
Techniki numeryczne oparte na obliczeniach, jakkolwiek skuteczne by nie były, mają wiele ograniczeń epistemologicznych i logicznych. Dlatego, jak podsumowują ks. prałat Pegoraro i prof. Ars, nie mogą one zastąpić wszystkich niuansów ludzkiego myślenia i wszystkich wymiarów relacji międzyludzkich. Niektórych głębokich wymiarów opieki nad pacjentem nie da się w rzeczywistości zastąpić zoptymalizowanymi procedurami numerycznymi i autonomicznymi robotami. Podstawową zasadą przewodnią jest to, że „pacjent nie jest problemem do rozwiązania (za pomocą AI lub innych technologii), ale tajemnicą, która objawia samego Chrystusa”.
Zakazali też opieki "afirmującej płeć" w szpitalach katolickich.
Powstały one w ramach projektu "Namalować katolicyzm od nowa".