Jak sztuczna inteligencja ma zmieniać ochronę zdrowia?

Światowa Organizacja Zdrowia (WHO) wezwała do zachowania ostrożności podczas korzystania z narzędzi dużych modeli językowych (LLM) generowanych przez sztuczną inteligencję (AI).

LLM obejmują jedne z najszybciej rozwijających się platform, takie jak ChatGPT, Bard, Bert i wiele innych, które naśladują rozumienie, przetwarzanie i tworzenie komunikacji międzyludzkiej. Ich błyskawiczne rozpowszechnienie w społeczeństwie i rosnące wykorzystanie eksperymentalne do celów związanych ze zdrowiem wywołuje znaczne emocje wokół potencjału wspierania potrzeb zdrowotnych ludzi.

Światowa Organizacja Zdrowia zauważa – Konieczne jest dokładne zbadanie zagrożeń podczas korzystania z LLM w celu poprawy dostępu do informacji zdrowotnych, jako narzędzia wspomagającego podejmowanie decyzji, a nawet w celu zwiększenia zdolności diagnostycznych w warunkach niedofinansowanych w celu ochrony zdrowia ludzi i zmniejszenia nierówności.

Jak wskazuje organizacja, pospieszne przyjęcie nieprzetestowanych systemów może prowadzić do błędów popełnianych przez pracowników służby zdrowia, szkodzić pacjentom, osłabiać zaufanie do sztucznej inteligencji, a tym samym podważać (lub opóźniać) potencjalne długoterminowe korzyści i zastosowania takich technologii na całym świecie.

Obawy, które wymagają rygorystycznego nadzoru potrzebnego do bezpiecznego, skutecznego i etycznego korzystania z technologii, obejmują:

  • dane wykorzystywane do szkolenia sztucznej inteligencji mogą być stronnicze, generując wprowadzające w błąd lub niedokładne informacje, które mogą stwarzać zagrożenie dla zdrowia, równości i włączenia społecznego;
  • LLM generują odpowiedzi, które mogą wydawać się autorytatywne i wiarygodne dla użytkownika końcowego; jednakże odpowiedzi te mogą być całkowicie błędne lub zawierać poważne błędy, zwłaszcza w przypadku odpowiedzi związanych ze zdrowiem;
  • LLM mogą być szkolone w zakresie danych, dla których zgoda mogła nie zostać wcześniej wyrażona na takie wykorzystanie, a LLM mogą nie chronić danych wrażliwych (w tym danych dotyczących zdrowia), które użytkownik dostarcza do aplikacji w celu wygenerowania odpowiedzi;
  • LLM mogą być niewłaściwie wykorzystywane do generowania i rozpowszechniania wysoce przekonujących dezinformacji w formie treści tekstowych, audio lub wideo, które opinii publicznej trudno odróżnić od wiarygodnych treści dotyczących zdrowia.

Chociaż WHO jest zaangażowana w wykorzystywanie nowych technologii, w tym sztucznej inteligencji i cyfrowego zdrowia, w celu poprawy zdrowia ludzkiego, zaleca decydentom politycznym zapewnienie bezpieczeństwa i ochrony pacjentów, podczas gdy firmy technologiczne pracują nad komercjalizacją LLM.

Sześć podstawowych zasad określonych przez WHO to:
1) ochrona autonomii; 
2) promowanie dobrostanu ludzi, bezpieczeństwa i interesu publicznego; 
3) zapewnienie przejrzystości, wytłumaczalności i zrozumiałości; 
4) wspieranie odpowiedzialności i rozliczalności;
5) zapewnienie inkluzywności i równości;
6) promowanie sztucznej inteligencji, która jest responsywna i zrównoważona.

Źródło: Rynek Zdrowia

Reklama

Sklep

NAJNOWSZY NUMER Rehabilitacja w praktyce nr 1/2024<br />
<br />

NAJNOWSZY NUMER Rehabilitacja w praktyce nr 1/2024

59,00 zł

zawiera 8% VAT, bez kosztów dostawy

Kup teraz
Praktyczny przewodnik fizjoterapii w onkologii<br />
<br />

Praktyczny przewodnik fizjoterapii w onkologii

70,00 zł

zawiera 5% VAT, bez kosztów dostawy

Kup teraz
BESTSELLER Rekomendacje postępowania fizjoterapeutycznego <br />
<br />

BESTSELLER Rekomendacje postępowania fizjoterapeutycznego

150,00 zł

zawiera 5% VAT, bez kosztów dostawy

Kup teraz
Wybrane aspekty fizjoterapii wad postawy [E-BOOK]<br />
<br />
<br />

Wybrane aspekty fizjoterapii wad postawy [E-BOOK]


49,00 zł

zawiera 5% VAT, bez kosztów dostawy

Kup teraz
Poznaj nasze serwisy