Odcinek 1

Podstawy AI dla pracowników ochrony zdrowia

Czas trwania wideo:11:17
Czas czytania:8:00
Format:
tekst i wideo
By:Zespół Noa - ZnanyLekarz

Przechodzę do lekcji 2 →

Witamy na kursie! Od teraz poprowadzimy Cię przez podstawy sztucznej inteligencji dla pracowników ochrony zdrowia. Dzięki temu zaczniesz korzystać z nich z większą pewnością w codziennej pracy.

Zaczynamy!

Nawet bez przygotowania technicznego pracownicy ochrony zdrowia mogą i powinni rozumieć podstawy sztucznej inteligencji.

Dlaczego? Ponieważ pomaga to lepiej wykorzystać tę technologię w codziennej praktyce, a nawet w opiece nad pacjentami.

👉 Najważniejsze, o czym należy pamiętać, to fakt, że sztuczna inteligencja nie jest pojedynczym narzędziem – to zbiór technologii, które współpracują ze sobą.

Wróćmy pamięcią do lekcji fizyki w szkole.
Mamy kategorię „nauki ścisłe”, w ramach których są różne dziedziny, takie jak fizyka, biologia i chemia.
Każda z nich obejmuje jeszcze bardziej szczegółowe tematy: genetykę, biologię komórkową, fizykę kwantową...

AI działa podobnie.

Jest to termin ogólny, obejmujący szeroki zakres dziedzin i warstw – każda z nich ma swój własny cel, narzędzia i złożoność.

AI jest jak nauka

️‍🔥 Rozgrzewka: niewidzialne AI w codziennym życiu

Zapraszam do wykonania szybkiego ćwiczenia i odpowiedzi na pytanie, z ilu narzędzi opartych na sztucznej inteligencji korzystasz już w codziennym życiu – czasami nawet nie zdając sobie z tego sprawy!

Aby Ci pomóc, wymienię kilka najpopularniejszych z nich, uporządkowanych według sposobu, w jaki są zazwyczaj używane.

1. Po pierwsze asystenci głosowi, tacy jak Gemini, Alexa czy Siri. 
Pomagają wyszukiwać informacje, ustawiać przypomnienia lub planować spotkania, a wszystko to za pomocą głosu.

2. Następnie są chatboty, takie jak ChatGPT, Gemini, Microsoft Copilot i DeepSeek. 
Mogą odpowiadać na pytania, analizować dane, streszczać teksty, a nawet tworzyć obrazy lub dokumenty.

3. Możesz również korzystać z funkcji przewidywania tekstu i autokorekty, gdy telefon poprawia literówki lub sugeruje kolejne słowo, które zamierzasz wpisać. Wykorzystuje on sztuczną inteligencję do analizowania wzorców pisania i przewidywania intencji użytkownika.

4. I wreszcie – platformy streamingowe i ich rekomendacje, takie jak Netflix, Spotify czy YouTube. Wszystkie są oparte na sztucznej inteligencji, która analizuje historię oglądania lub słuchania oraz preferencje użytkowników, aby sugerować nowe treści, które mogą im się spodobać.  

Zatem nawet jeśli wcześniej tego nie zauważaliśmy, sztuczna inteligencja jest już dyskretnie zintegrowana z wieloma aspektami codziennego życia.

W ramach tego kursu pójdziemy o krok dalej i zbadamy, w jaki sposób sztuczna inteligencja może wspierać praktykę medyczną, od dokumentacji po komunikację z pacjentami.

Mechanizmy napędzające ChatGPT, Gemini i inne popularne narzędzia oparte na sztucznej inteligencji

Zacznijmy od zgłębienia mechanizmów działania najpopularniejszych narzędzi opartych na sztucznej inteligencji, takich jak ChatGPT, Gemini czy Perplexity...

Im lepiej nauczysz się ich używać, tym większe korzyści zyskasz. Przyjrzyjmy się zatem podstawowym zasadom działania tych narzędzi: w jaki sposób uczą się, rozumieją i generują ludzki język?  

Są one oparte na tak zwanych Large Language Models, w skrócie: LLM.

Ale chwila, chwila! Zanim ten onieśmielający termin sprawi, że uciekniesz... Wiem, że „duże modele językowe” mogą brzmieć nieco przerażająco, ale zamierzam pokazać Ci tylko to, co absolutnie niezbędne, aby łatwo zrozumieć tę koncepcję.

Robot w księgarni: prosta historia pozwalająca zrozumieć LLM

Opowiem Ci historię, która pomoże Ci łatwo zrozumieć działanie modeli LLM. 
Wyobraź sobie robota w ogromnej księgarni. Robot ten przeczytał miliony książek, stron internetowych, artykułów, a nawet rozmów.
Robot ten nie myśli jak człowiek, ale jest niesamowicie dobry w zapamiętywaniu tego, jak ludzie zazwyczaj mówią, piszą i zadają pytania.

Zasadniczo tym właśnie zajmuje się model LLM. Jest to rodzaj sztucznej inteligencji, która nauczyła się „mówić” i „rozumieć” ludzki język w bardzo wyrafinowany sposób, ponieważ została przeszkolona przy użyciu ogromnej ilości danych.

W tym procesie modele gromadzą wystarczająco dużo informacji, by zbudować szerokie rozumienie świata – a to rozumienie (czy też inteligencja) pozwala im dobrze wykonywać zupełnie nowe zadania. Nie chcemy przecież wykorzystywać ich wyłącznie do rzeczy, na których były trenowane, ani do odtwarzania treści, które „przeczytały”. Chcemy zadawać im pytania, z którymi nigdy wcześniej się nie spotkały i oczekiwać mądrych odpowiedzi. I co ważne, one potrafią to robić.

🕵️ Działa jak detektyw: po przeczytaniu tak dużej ilości tekstów LLM zaczyna dostrzegać pewne wzorce.

Na przykład, jeśli zapytasz „Jaka jest dzisiaj pogoda?”, oczekiwana odpowiedź będzie dotyczyła słońca, deszczu lub chmur.


🔮 „Przewiduje” następne słowo: ale zamiast po prostu dokończyć zdanie, potrafi pisać pełne teksty, odpowiadać na pytania, streszczać artykuły, tłumaczyć języki i wiele więcej.

 Jest to wysoce inteligentna technologia, która generuje spójne i trafne treści na podstawie poleceń użytkownika. To tak, jakby poprosić szefa kuchni o przygotowanie talerza risotto. Nie stworzy on dania z niczego, ale skorzysta z najlepszej książki kucharskiej w oparciu o swoją wiedzę.

Krótko mówiąc, LLM to rodzaj sztucznej inteligencji, która została wyszkolona do rozumienia i generowania ludzkiego języka. Uczy się ona poprzez analizowanie ogromnych ilości danych (takich jak książki, strony internetowe i artykuły), aby zrozumieć, jak działa język.

Dobrym przykładem jest sposób, w jaki Google prezentuje wyniki wyszukiwania. Wcześniej Google było „katalogiem informacji”, wskazującym użytkownikom, gdzie mogą znaleźć odpowiedzi. Teraz, dzięki LLM, zbiera i podsumowuje informacje, próbując udzielić użytkownikom bezpośredniej odpowiedzi.


Wyobraźmy sobie, że chcesz znaleźć najlepsze opcje leczenia dla pacjenta z nowo zdiagnozowaną cukrzycą typu 2. W przeszłości Google wyświetlałoby listę linków do artykułów naukowych lub wytycznych klinicznych. Teraz, dzięki pomocy modeli LLM, pokazuje już podsumowaną odpowiedź, obejmującą wskazania dotyczące leczenia, zalecenia dotyczące stylu życia, a nawet potencjalne interakcje między lekami, a wszystko to w przejrzystej formie przypominającej rozmowę.

Zanim napiszesz prompt: zrozum główne możliwości narzędzi AI


Najważniejsza rzecz, o której warto pamiętać: to, co AI potrafi lub czego nie potrafi, zależy od sposobu trenowania. Poniżej podsumujemy 5 podstawowych funkcji narzędzi opartych na dużych modelach językowych (LLM) oraz przykłady ich zastosowań.
Większość popularnych platform (OpenAI/GPT, Google/Gemini, Anthropic/Claude) łączy w sobie kilka z tych funkcji.

1. Funkcja pierwsza: generowanie tekstu

Najbardziej podstawowa funkcja: tworzenie tekstu na podstawie innej treści. Doskonale sprawdza się w kreatywnym pisaniu, podsumowaniach i pytaniach otwartych. 

👉 Gdzie się sprawdza:

  • Pisanie, redagowanie i streszczanie tekstów
  • Odpowiadanie na proste i ogólne pytania
  • Generowanie kreatywnych pomysłów (warto weryfikować fakty)
  • Porządkowanie informacji: tworzenie szablonów, checklist czy dokumentów

2. Funkcja druga: generowanie grafik i wideo

Generowanie obrazów polega na zamianie opisu słownego w treść wizualną. Opisujesz, co chcesz zobaczyć, a model tworzy obraz pasujący do tej wizji. W ochronie zdrowia jest to szczególnie przydatne – wizualizacje często ułatwiają pacjentom zrozumienie informacji.

👉 Gdzie się sprawdza:

  • Przygotowywanie wizualnych wyjaśnień dla pacjentów (procedury, instrukcje, przebieg badania)
  • Tworzenie grafik na media społecznościowe
  • Przygotowywanie ikon lub ilustracji do prezentacji, kursów czy materiałów edukacyjnych
  • Wizualizacja układu gabinetu czy organizacji pomieszczeń
  • Przydatne narzędzia: Midjourney (grafiki), Sora (wideo), Veo (wideo), Nano Banana* (grafiki)

*Nowość: modele takie jak Nano Banana Pro tworzą już zaskakująco zaawansowane treści (przykład w linku z oryginału). Zobacz tutaj

3. Funkcja trzecia: rozumowanie

To coś więcej niż generowanie tekstu. Model analizuje krok po kroku, wyjaśnia tok myślenia i rozwiązuje złożone problemy.

👉 Gdzie się sprawdza:

  • Rozkładanie złożonych przypadków klinicznych na logiczne etapy
  • Wsparcie w triażu i ustalaniu priorytetów – porządkowanie list pacjentów, wskazywanie pilnych przypadków, sygnalizowanie objawów wymagających szybkiej reakcji
  • Analiza procesów w gabinecie i proponowanie ulepszeń

* W niektórych modelach trzeba to włączyć ręcznie, np. „extended thinking” w Claude.

4. Funkcja czwarta: wyszukiwanie w sieci

Standardowe modele generują odpowiedzi na podstawie danych z treningu. Modele z funkcją wyszukiwania korzystają z internetu w czasie rzeczywistym – potrafią „sprawdzić informacje”, przeanalizować źródła i na tej podstawie stworzyć odpowiedź.

👉 Gdzie się sprawdza:

  • Znajdowanie najświeższych informacji

  • Analizowanie wielu źródeł przed udzieleniem odpowiedzi
  • Podawanie źródeł i cytowanych materiałów
  • Wsparcie w badaniach rynkowych lub analizach konkurencji

5. Funkcja piąta: deep research

Połączenie rozumowania i wyszukiwania. Model nie tylko znajduje informacje, ale też je analizuje i wybiera te wartościowe.

👉 Gdzie się sprawdza:

  • Skanowanie wielu źródeł i wybieranie tych wiarygodnych 
  • Synteza rozproszonych danych w jedną spójną odpowiedź
  • Wykrywanie trendów i wzorców
  • Porównywanie różnych opinii i wyjaśnianie, które są lepiej uzasadnione – i dlaczego
    • Przydatne narzędzia:
      • Perplexity: szybki tryb deep-research, odpowiedzi ze źródłami
      • Google Gemini: wyszukiwanie Google + rozumowanie multimodalne
      • ChatGPT: analiza źródeł, wieloetapowe przeglądanie, raporty z cytowaniami
      • Claude: zaawansowane rozumowanie + przeszukiwanie sieci, jasne wyjaśnienia źródeł

Dodatkowe wskazówki

#1

Za każdym razem, gdy zmieniasz temat, rozpocznij nową rozmowę. Spowoduje to zresetowanie kontekstu i pomoże sztucznej inteligencji zachować koncentrację, unikając zamieszania wynikającego z poprzednich rozmów.

#2

Pisanie nie zawsze jest wygodne, zwłaszcza w ruchliwej klinice. Obecnie wiele platform obsługuje głosowe wprowadzanie danych, co pozwala na bezpośrednie wypowiadanie pytań lub poleceń. 

#3

Poproś o streszczenie wideo. Załóżmy, że przeglądasz wykład z konferencji medycznej online, ale nie masz czasu, aby obejrzeć cały film. Po prostu skopiuj link do YouTube, wklej go na czacie i poproś o streszczenie. Jeśli Ci się spodoba, bardziej zaawansowane narzędzia mogą podać Ci najważniejsze informacje, oszczędzając Twój czas i pomagając Ci zdecydować, czy warto obejrzeć cały film.


⚙️ Czym jest prompt

Po zrozumieniu podstaw LLM kolejnym bardzo ważnym tematem jest nauka najlepszego sposobu interakcji z tymi narzędziami. Czas zrozumieć inżynierię promptów.


Po pierwsze: czym dokładnie jest prompt?

Prompt to wiadomość lub pytanie, które wysyłasz do narzędzia AI, aby uzyskać odpowiedź. W ten sposób „rozmawiasz” z AI, niezależnie od tego, czy prosisz o pomoc, generujesz treści, rozwiązujesz problem, czy szukasz informacji.

Kiedy piszesz prompt, narzędzie wykorzystuje pamięć krótkoterminową (informacje, które podajesz w danym momencie) oraz pamięć długoterminową (wiedzę zdobytą podczas treningu), aby zrozumieć Twoją prośbę i wygenerować jak najlepszą odpowiedź. Obie mają wpływ na wynik.

→ Zobacz ten przykład: wyobraźmy sobie, że musisz jasno i wyczerpująco wyjaśnić swoim pacjentom, czym jest nadciśnienie tętnicze.

Twoim promptem byłoby "Napisz krótkie i jasne wyjaśnienie, czym jest nadciśnienie tętnicze, tak aby każdy pacjent mógł je łatwo zrozumieć" lub "Jak wyjaśniłbyś nadciśnienie tętnicze pacjentowi bez wiedzy medycznej?"


Wskazówka: modele LLM nie sięgają szybko do swojej pamięci długoterminowej – czasem przypominają sobie dane z treningu, ale nie jest to w pełni niezawodne. Natomiast jeśli podasz im informacje bezpośrednio w promptcie (na przykład rozdział książki), doskonale wykorzystają pamięć krótkoterminową i wygenerują dokładne podsumowania lub wyjaśnienia.

Widzisz? W systemach opartych na LMM im dokładniejsze i lepiej osadzone w kontekście są dostarczane informacje, tym więcej danych musi zostać sprawdzonych.

W następnej lekcji poznasz idealny wzór na stworzenie własnego promptu!

 

Następna lekcja: Od promptu do działania: najlepsze praktyki AI w codziennej pracy lekarza
Wypróbuj AI w swojej praktyce. Poproś o demo narzędzia od ZnanyLekarz

Technologia stworzona dla specjalistów medycznych