Witamy na kursie! Od teraz poprowadzimy Cię przez podstawy sztucznej inteligencji dla pracowników ochrony zdrowia. Dzięki temu zaczniesz korzystać z nich z większą pewnością w codziennej pracy.
Zaczynamy!
Nawet bez przygotowania technicznego pracownicy ochrony zdrowia mogą i powinni rozumieć podstawy sztucznej inteligencji.
Dlaczego? Ponieważ pomaga to lepiej wykorzystać tę technologię w codziennej praktyce, a nawet w opiece nad pacjentami.
👉 Najważniejsze, o czym należy pamiętać, to fakt, że sztuczna inteligencja nie jest pojedynczym narzędziem – to zbiór technologii, które współpracują ze sobą.
Wróćmy pamięcią do lekcji fizyki w szkole.
Mamy kategorię „nauki ścisłe”, w ramach których są różne dziedziny, takie jak fizyka, biologia i chemia.
Każda z nich obejmuje jeszcze bardziej szczegółowe tematy: genetykę, biologię komórkową, fizykę kwantową...
AI działa podobnie.
Jest to termin ogólny, obejmujący szeroki zakres dziedzin i warstw – każda z nich ma swój własny cel, narzędzia i złożoność.
Zapraszam do wykonania szybkiego ćwiczenia i odpowiedzi na pytanie, z ilu narzędzi opartych na sztucznej inteligencji korzystasz już w codziennym życiu – czasami nawet nie zdając sobie z tego sprawy!
Aby Ci pomóc, wymienię kilka najpopularniejszych z nich, uporządkowanych według sposobu, w jaki są zazwyczaj używane.
1. Po pierwsze asystenci głosowi, tacy jak Gemini, Alexa czy Siri.
Pomagają wyszukiwać informacje, ustawiać przypomnienia lub planować spotkania, a wszystko to za pomocą głosu.
2. Następnie są chatboty, takie jak ChatGPT, Gemini, Microsoft Copilot i DeepSeek.
Mogą odpowiadać na pytania, analizować dane, streszczać teksty, a nawet tworzyć obrazy lub dokumenty.
3. Możesz również korzystać z funkcji przewidywania tekstu i autokorekty, gdy telefon poprawia literówki lub sugeruje kolejne słowo, które zamierzasz wpisać. Wykorzystuje on sztuczną inteligencję do analizowania wzorców pisania i przewidywania intencji użytkownika.
4. I wreszcie – platformy streamingowe i ich rekomendacje, takie jak Netflix, Spotify czy YouTube. Wszystkie są oparte na sztucznej inteligencji, która analizuje historię oglądania lub słuchania oraz preferencje użytkowników, aby sugerować nowe treści, które mogą im się spodobać.
Zatem nawet jeśli wcześniej tego nie zauważaliśmy, sztuczna inteligencja jest już dyskretnie zintegrowana z wieloma aspektami codziennego życia.
W ramach tego kursu pójdziemy o krok dalej i zbadamy, w jaki sposób sztuczna inteligencja może wspierać praktykę medyczną, od dokumentacji po komunikację z pacjentami.
Zacznijmy od zgłębienia mechanizmów działania najpopularniejszych narzędzi opartych na sztucznej inteligencji, takich jak ChatGPT, Gemini czy Perplexity...
Im lepiej nauczysz się ich używać, tym większe korzyści zyskasz. Przyjrzyjmy się zatem podstawowym zasadom działania tych narzędzi: w jaki sposób uczą się, rozumieją i generują ludzki język?
Są one oparte na tak zwanych Large Language Models, w skrócie: LLM.
Ale chwila, chwila! Zanim ten onieśmielający termin sprawi, że uciekniesz... Wiem, że „duże modele językowe” mogą brzmieć nieco przerażająco, ale zamierzam pokazać Ci tylko to, co absolutnie niezbędne, aby łatwo zrozumieć tę koncepcję.
Opowiem Ci historię, która pomoże Ci łatwo zrozumieć działanie modeli LLM.
Wyobraź sobie robota w ogromnej księgarni. Robot ten przeczytał miliony książek, stron internetowych, artykułów, a nawet rozmów.
Robot ten nie myśli jak człowiek, ale jest niesamowicie dobry w zapamiętywaniu tego, jak ludzie zazwyczaj mówią, piszą i zadają pytania.
Zasadniczo tym właśnie zajmuje się model LLM. Jest to rodzaj sztucznej inteligencji, która nauczyła się „mówić” i „rozumieć” ludzki język w bardzo wyrafinowany sposób, ponieważ została przeszkolona przy użyciu ogromnej ilości danych.
W tym procesie modele gromadzą wystarczająco dużo informacji, by zbudować szerokie rozumienie świata – a to rozumienie (czy też inteligencja) pozwala im dobrze wykonywać zupełnie nowe zadania. Nie chcemy przecież wykorzystywać ich wyłącznie do rzeczy, na których były trenowane, ani do odtwarzania treści, które „przeczytały”. Chcemy zadawać im pytania, z którymi nigdy wcześniej się nie spotkały i oczekiwać mądrych odpowiedzi. I co ważne, one potrafią to robić.
🕵️ Działa jak detektyw: po przeczytaniu tak dużej ilości tekstów LLM zaczyna dostrzegać pewne wzorce.
Na przykład, jeśli zapytasz „Jaka jest dzisiaj pogoda?”, oczekiwana odpowiedź będzie dotyczyła słońca, deszczu lub chmur.
🔮 „Przewiduje” następne słowo: ale zamiast po prostu dokończyć zdanie, potrafi pisać pełne teksty, odpowiadać na pytania, streszczać artykuły, tłumaczyć języki i wiele więcej.
Jest to wysoce inteligentna technologia, która generuje spójne i trafne treści na podstawie poleceń użytkownika. To tak, jakby poprosić szefa kuchni o przygotowanie talerza risotto. Nie stworzy on dania z niczego, ale skorzysta z najlepszej książki kucharskiej w oparciu o swoją wiedzę.
Krótko mówiąc, LLM to rodzaj sztucznej inteligencji, która została wyszkolona do rozumienia i generowania ludzkiego języka. Uczy się ona poprzez analizowanie ogromnych ilości danych (takich jak książki, strony internetowe i artykuły), aby zrozumieć, jak działa język.
Dobrym przykładem jest sposób, w jaki Google prezentuje wyniki wyszukiwania. Wcześniej Google było „katalogiem informacji”, wskazującym użytkownikom, gdzie mogą znaleźć odpowiedzi. Teraz, dzięki LLM, zbiera i podsumowuje informacje, próbując udzielić użytkownikom bezpośredniej odpowiedzi.
Wyobraźmy sobie, że chcesz znaleźć najlepsze opcje leczenia dla pacjenta z nowo zdiagnozowaną cukrzycą typu 2. W przeszłości Google wyświetlałoby listę linków do artykułów naukowych lub wytycznych klinicznych. Teraz, dzięki pomocy modeli LLM, pokazuje już podsumowaną odpowiedź, obejmującą wskazania dotyczące leczenia, zalecenia dotyczące stylu życia, a nawet potencjalne interakcje między lekami, a wszystko to w przejrzystej formie przypominającej rozmowę.
Najważniejsza rzecz, o której warto pamiętać: to, co AI potrafi lub czego nie potrafi, zależy od sposobu trenowania. Poniżej podsumujemy 5 podstawowych funkcji narzędzi opartych na dużych modelach językowych (LLM) oraz przykłady ich zastosowań.
Większość popularnych platform (OpenAI/GPT, Google/Gemini, Anthropic/Claude) łączy w sobie kilka z tych funkcji.
Najbardziej podstawowa funkcja: tworzenie tekstu na podstawie innej treści. Doskonale sprawdza się w kreatywnym pisaniu, podsumowaniach i pytaniach otwartych.
👉 Gdzie się sprawdza:
Generowanie obrazów polega na zamianie opisu słownego w treść wizualną. Opisujesz, co chcesz zobaczyć, a model tworzy obraz pasujący do tej wizji. W ochronie zdrowia jest to szczególnie przydatne – wizualizacje często ułatwiają pacjentom zrozumienie informacji.
👉 Gdzie się sprawdza:
*Nowość: modele takie jak Nano Banana Pro tworzą już zaskakująco zaawansowane treści (przykład w linku z oryginału). Zobacz tutaj
To coś więcej niż generowanie tekstu. Model analizuje krok po kroku, wyjaśnia tok myślenia i rozwiązuje złożone problemy.
👉 Gdzie się sprawdza:
* W niektórych modelach trzeba to włączyć ręcznie, np. „extended thinking” w Claude.
Standardowe modele generują odpowiedzi na podstawie danych z treningu. Modele z funkcją wyszukiwania korzystają z internetu w czasie rzeczywistym – potrafią „sprawdzić informacje”, przeanalizować źródła i na tej podstawie stworzyć odpowiedź.
👉 Gdzie się sprawdza:
Znajdowanie najświeższych informacji
Połączenie rozumowania i wyszukiwania. Model nie tylko znajduje informacje, ale też je analizuje i wybiera te wartościowe.
👉 Gdzie się sprawdza:
Za każdym razem, gdy zmieniasz temat, rozpocznij nową rozmowę. Spowoduje to zresetowanie kontekstu i pomoże sztucznej inteligencji zachować koncentrację, unikając zamieszania wynikającego z poprzednich rozmów.
Pisanie nie zawsze jest wygodne, zwłaszcza w ruchliwej klinice. Obecnie wiele platform obsługuje głosowe wprowadzanie danych, co pozwala na bezpośrednie wypowiadanie pytań lub poleceń.
Poproś o streszczenie wideo. Załóżmy, że przeglądasz wykład z konferencji medycznej online, ale nie masz czasu, aby obejrzeć cały film. Po prostu skopiuj link do YouTube, wklej go na czacie i poproś o streszczenie. Jeśli Ci się spodoba, bardziej zaawansowane narzędzia mogą podać Ci najważniejsze informacje, oszczędzając Twój czas i pomagając Ci zdecydować, czy warto obejrzeć cały film.
Po zrozumieniu podstaw LLM kolejnym bardzo ważnym tematem jest nauka najlepszego sposobu interakcji z tymi narzędziami. Czas zrozumieć inżynierię promptów.
Po pierwsze: czym dokładnie jest prompt?
Prompt to wiadomość lub pytanie, które wysyłasz do narzędzia AI, aby uzyskać odpowiedź. W ten sposób „rozmawiasz” z AI, niezależnie od tego, czy prosisz o pomoc, generujesz treści, rozwiązujesz problem, czy szukasz informacji.
Kiedy piszesz prompt, narzędzie wykorzystuje pamięć krótkoterminową (informacje, które podajesz w danym momencie) oraz pamięć długoterminową (wiedzę zdobytą podczas treningu), aby zrozumieć Twoją prośbę i wygenerować jak najlepszą odpowiedź. Obie mają wpływ na wynik.
→ Zobacz ten przykład: wyobraźmy sobie, że musisz jasno i wyczerpująco wyjaśnić swoim pacjentom, czym jest nadciśnienie tętnicze.
Twoim promptem byłoby "Napisz krótkie i jasne wyjaśnienie, czym jest nadciśnienie tętnicze, tak aby każdy pacjent mógł je łatwo zrozumieć" lub "Jak wyjaśniłbyś nadciśnienie tętnicze pacjentowi bez wiedzy medycznej?"
Wskazówka: modele LLM nie sięgają szybko do swojej pamięci długoterminowej – czasem przypominają sobie dane z treningu, ale nie jest to w pełni niezawodne. Natomiast jeśli podasz im informacje bezpośrednio w promptcie (na przykład rozdział książki), doskonale wykorzystają pamięć krótkoterminową i wygenerują dokładne podsumowania lub wyjaśnienia.
Widzisz? W systemach opartych na LMM im dokładniejsze i lepiej osadzone w kontekście są dostarczane informacje, tym więcej danych musi zostać sprawdzonych.
W następnej lekcji poznasz idealny wzór na stworzenie własnego promptu!