REKLAMA

Generacyjna sztuczna inteligencja (AI): WHO publikuje nowe wytyczne dotyczące zarządzania LMM

KIM wydał nowe wytyczne dotyczące etyki i zarządzania dużymi modelami multimodalnymi (LMM) w celu ich właściwego wykorzystania w celu promowania i ochrony zdrowia populacji. LMM to rodzaj szybko rosnącej rośliny generatywnej sztuczna inteligencja (AI) technologia, która ma pięć szerokich zastosowań zdrowotnych in 

1. Diagnoza i opieka kliniczna, np. odpowiadanie na pisemne zapytania pacjentów; 

2. Stosowanie pod kontrolą pacjenta, np. w celu badania objawów i leczenia; 

3. Zadania biurowo-administracyjne, takie jak dokumentowanie i podsumowywanie wizyt pacjentów w ramach elektronicznej dokumentacji medycznej; 

4. Edukacja medyczna i pielęgniarska, w tym zapewnianie stażystom symulowanych spotkań z pacjentem oraz; 

5. Badania naukowe i opracowywanie leków, w tym identyfikacja nowych związków. 

Jednakże zastosowania te w opiece zdrowotnej wiążą się z ryzykiem generowania fałszywych, niedokładnych, stronniczych lub niekompletnych oświadczeń, które mogą zaszkodzić osobom wykorzystującym takie informacje przy podejmowaniu decyzji zdrowotnych. Co więcej, LMM mogą być szkolone na danych niskiej jakości lub stronniczych, niezależnie od tego, czy chodzi o rasę, pochodzenie etniczne, pochodzenie, płeć, tożsamość płciową czy wiek. Istnieją również szersze zagrożenia dla systemów opieki zdrowotnej, takie jak dostępność i przystępność cenowa najskuteczniejszych LMM. LMM mogą również zachęcać pracowników służby zdrowia i pacjentów do „stronniczości związanej z automatyzacją”, w wyniku której przeoczane są błędy, które w przeciwnym razie zostałyby zidentyfikowane, lub trudne wybory są niewłaściwie delegowane do LMM. LMM, podobnie jak inne formy AI, są również podatne na zagrożenia cyberbezpieczeństwa, które mogą zagrozić informacjom pacjentów lub wiarygodności tych algorytmów, a także szerzej rozumianemu świadczeniu opieki zdrowotnej. 

Dlatego też, aby stworzyć bezpieczne i skuteczne LMM, WHO wydała zalecenia dla rządów i twórców LMM. 

Rządy ponoszą główną odpowiedzialność za ustalenie standardów opracowywania i wdrażania LMM oraz ich integracji i wykorzystania do celów związanych ze zdrowiem publicznym i medycyną. Rządy powinny inwestować w infrastrukturę non-profit lub infrastrukturę publiczną lub ją zapewniać, w tym moc obliczeniową i publiczne zbiory danych, dostępną dla programistów z sektora publicznego, prywatnego i non-profit, która wymaga od użytkowników przestrzegania zasad i wartości etycznych w zamiana za dostęp. 

· Stosować przepisy, zasady i regulacje, aby zapewnić, że LMM i aplikacje stosowane w opiece zdrowotnej i medycynie, niezależnie od ryzyka i korzyści związanych z AI technologii, spełniają obowiązki etyczne i standardy praw człowieka, które wpływają na przykład na godność, autonomię lub prywatność osoby. 

· Wyznacz istniejącą lub nową agencję regulacyjną, która będzie oceniać i zatwierdzać LMM i aplikacje przeznaczone do stosowania w opiece zdrowotnej lub medycynie – o ile pozwalają na to zasoby. 

· Wprowadzenie obowiązkowych audytów po wydaniu i ocen skutków, w tym w zakresie ochrony danych i praw człowieka, przeprowadzanych przez niezależne strony trzecie w przypadku wdrożenia LMM na dużą skalę. Należy opublikować wyniki kontroli i oceny skutków 

i powinien obejmować wyniki i skutki zdezagregowane według typu użytkownika, w tym na przykład według wieku, rasy lub niepełnosprawności. 

· LMM są projektowane nie tylko przez naukowców i inżynierów. Potencjalni użytkownicy oraz wszystkie bezpośrednie i pośrednie zainteresowane strony, w tym świadczeniodawcy, badacze naukowi, pracownicy służby zdrowia i pacjenci, powinni być zaangażowani od wczesnych etapów AI rozwój ustrukturyzowanego, włączającego i przejrzystego projektu oraz zapewnione możliwości zgłaszania kwestii etycznych, wyrażania obaw i wnoszenia wkładu dla AI rozpatrywany wniosek. 

LMM zaprojektowano tak, aby wykonywały dobrze zdefiniowane zadania z niezbędną dokładnością i niezawodnością, aby poprawić wydajność systemów opieki zdrowotnej i wspierać interesy pacjentów. Deweloperzy powinni także być w stanie przewidzieć i zrozumieć potencjalne wyniki wtórne. 

*** 

Źródło: 

WHO 2024. Etyka i zarządzanie sztuczną inteligencją na rzecz zdrowia: wytyczne dotyczące dużych modeli multimodalnych. Dostępne o https://iris.who.int/bitstream/handle/10665/375579/9789240084759-eng.pdf?sequence=1&isAllowed=y 

***

Zespół SCIEU
Zespół SCIEUhttps://www.ScientificEuropean.co.uk
Scientific European® | SCIEU.com | Znaczący postęp w nauce. Wpływ na ludzkość. Inspirujące umysły.

Zapisz się do naszego newslettera

Aby być na bieżąco z najnowszymi wiadomościami, ofertami i specjalnymi ogłoszeniami.

Najpopularniejsze artykuły

COVID-19 Wave w Europie: aktualna sytuacja i prognozy na tę zimę w Wielkiej Brytanii,...

Europa jest wstrząśnięta niezwykle dużą liczbą...

Nagroda Nobla z chemii 2023 za odkrycie i syntezę kropek kwantowych  

Tegoroczna Nagroda Nobla w dziedzinie chemii została przyznana...
- Reklama -
94,470FaniJak
47,678ObserwujeObserwuj
1,772ObserwujeObserwuj
30abonenciZapisz się!