Rozwój sztucznej inteligencji otwiera nowe możliwości w diagnostyce obrazowej, ale jednocześnie może nieść nowe, dotąd nieznane wcześniej zagrożenia. Najnowsze badania pokazują, iż wygenerowane przez AI obrazy rentgenowskie mogą być tak realistyczne, iż wprowadzają w błąd choćby doświadczonych klinicystów. Dla stomatologów, którzy na co dzień opierają swoje decyzje na analizie zdjęć RTG, jest to sygnał ostrzegawczy o potencjalnie poważnych konsekwencjach klinicznych i prawnych.
W badaniu obejmującym grupę radiologów oceniano zestaw obrazów rentgenowskich, z których część była autentyczna, a część wygenerowana przez modele sztucznej inteligencji. Wyniki pokazały, iż zdolność odróżnienia obrazów prawdziwych od fałszywych była ograniczona. W warunkach braku wcześniejszego ostrzeżenia skuteczność rozpoznania była stosunkowo niska, natomiast choćby po poinformowaniu uczestników o możliwości występowania deepfake’ów część z nich przez cały czas pozostawała nierozpoznana.
Z punktu widzenia praktyki stomatologicznej oznacza to, iż sama czujność kliniczna może nie być wystarczająca do wykrycia zmanipulowanych obrazów diagnostycznych.
Sztuczna inteligencja kontra sztuczna inteligencja
Co istotne, problem dotyczy nie tylko ludzi. Systemy AI wykorzystywane do analizy obrazów medycznych również wykazują ograniczoną skuteczność w rozpoznawaniu sztucznie wygenerowanych danych. Oznacza to, iż narzędzia wspomagające diagnostykę, które coraz częściej są stosowane w stomatologii, mogą nie stanowić wystarczającej bariery ochronnej przed manipulacją obrazami diagnostycznymi.
Możliwe konsekwencje w stomatologii
Potencjalne zastosowanie fałszywych obrazów RTG budzi szczególne obawy w kontekście praktyki dentystycznej. Manipulacja zdjęciem może prowadzić do:
- błędnej diagnozy zmian okołowierzchołkowych lub próchnicowych,
- podjęcia nieuzasadnionego leczenia endodontycznego lub chirurgicznego,
- fałszowania dokumentacji medycznej w celach ubezpieczeniowych lub prawnych.
W skrajnych przypadkach może to skutkować nie tylko stratami finansowymi, ale również narażeniem pacjenta na niepotrzebne procedury medyczne.
Czy deepfake można rozpoznać?
Chociaż niektóre obrazy generowane przez sztuczną inteligencję mogą wykazywać subtelne nieprawidłowości, takie jak nadmierna symetria struktur czy nienaturalnie „czysty” obraz kości, różnice te często są trudne do wychwycenia w rutynowej praktyce. Wysoka jakość generowanych danych sprawia, iż tradycyjne kryteria oceny radiologicznej mogą okazać się niewystarczające.
Jak można się zabezpieczyć?
Eksperci wskazują na konieczność wprowadzenia rozwiązań systemowych, które poprawią bezpieczeństwo diagnostyki obrazowej. Do najważniejszych należą m.in. stosowanie cyfrowych podpisów i znaczników autentyczności obrazów, rozwój narzędzi do wykrywania manipulacji opartych na AI, edukacja klinicystów w zakresie nowych zagrożeń oraz wzmocnienie procedur bezpieczeństwa w systemach informatycznych placówek medycznych. Dla gabinetów stomatologicznych oznacza to potrzebę większej kontroli nad źródłem i integralnością dokumentacji obrazowej.
Zjawisko deepfake’ów w radiologii nie jest już jedynie teoretycznym problemem, ale realnym wyzwaniem, przed którym staje współczesna medycyna. W stomatologii, gdzie decyzje terapeutyczne często opierają się na pojedynczym obrazie RTG, ryzyko manipulacji nabiera szczególnego znaczenia. W najbliższych latach najważniejsze będzie połączenie świadomości klinicznej z rozwiązaniami technologicznymi, które pozwolą zachować wiarygodność diagnostyki obrazowej. Bez tego zaufanie do dokumentacji medycznej może zostać poważnie nadwyrężone.
Źródło: https://www.oralhealthgroup.com/
Rozwiązania oparte na sztucznej inteligencji z jednej strony usprawniają pracę lekarzy dentystów, pozwalają oszczędzać czas, poprawiać płynność procesów klinicznych czy porządkować liczne dane. Z drugiej strony, za rozwojem AI nie nadążają zmiany prawne, dotyczące np. odpowiedzialności za decyzje medyczne podejmowane przez lekarzy, także dentystów, przy pomocy narzędzi AI. – Na dziś to lekarz dentysta ponosi pełną odpowiedzialność za wyrządzoną szkodę na podstawowej zasadzie odpowiedzialności, jaką jest zasada winy – mówi dr n. pr. Zbigniew Więckowski, adiunkt w Katedrze Prawa Cywilnego i Prawa Prywatnego Międzynarodowego Instytutu Nauk Prawnych Uniwersytetu Kardynała S. Wyszyńskiego w Warszawie, autor i współautor recenzowanych publikacji naukowych z zakresu prawnych aspektów leków biologicznych, prawa własności intelektualnej i nowych technologii.








