PLLuM to krok w stronę nowoczesnej, bezpiecznej i suwerennej technologii AI w Polsce. Uczy się po polsku, rozwijany jest przez polskie instytucje i może wspierać lokalne potrzeby – od edukacji po e-usługi publiczne. Dzięki niemu możemy nie tylko nadążać za globalnym rozwojem sztucznej inteligencji, ale też tworzyć rozwiązania naprawdę dopasowane do naszych realiów.
Czym właściwie są modele językowe?
LLM-y to systemy uczące się na miliardach fragmentów tekstu – od literatury, przez dokumenty urzędowe, po internetowe wpisy. W procesie uczenia modele uczą się przewidywać kolejne słowa w zdaniach, aż w końcu zaczynają generować sensowne, ludzkopodobne odpowiedzi. Po takim treningu modele można dalej dostosowywać – najpierw ucząc je konkretnych zadań (np. streszczania tekstów), a potem kształtując ich sposób komunikacji (uprzejmość, bezpieczeństwo, neutralność). Tak powstają kolejne warianty modeli – od bazowego, po instrukcyjny i konwersacyjny. Warto pamiętać, że modele nie są wyszukiwarką ani źródłem aktualnej wiedzy – nie znają wydarzeń po dacie, do której się uczyły. Czasem mogą też "halucynować", czyli wymyślać przekonujące, ale nieprawdziwe informacje – dlatego ich odpowiedzi należy weryfikować.
Czym jest PLLuM?
Większość popularnych modeli była trenowana głównie na danych anglojęzycznych. Przez to nie radzą sobie najlepiej z fleksją, specyfiką kultury czy stylem wypowiedzi w języku polskim. Modele takie jak PLLuM czy Bielik są odpowiedzią na tę lukę. Dodatkowo polskie modele: zwiększają niezależność technologiczną, dają możliwość lokalnego uruchomienia, pozwalają lepiej chronić dane użytkowników, wspierają rozwój krajowych kompetencji AI.
PLLuM (Polish Large Language Model) to projekt tworzony przez polskie zespoły badawcze na zlecenie Ministerstwa Cyfryzacji. Celem jest stworzenie otwartego modelu AI dostosowanego do języka polskiego – zarówno pod względem gramatyki, jak i społeczno-kulturowego kontekstu. Rodzina PLLuM obejmuje modele różnej wielkości – od 8 do 70 miliardów parametrów. Mniejsze modele sprawdzą się na lokalnym komputerze, większe wymagają specjalistycznego sprzętu, ale oferują znacznie więcej możliwości.
Warianty modeli PLLuM
Modele dostępne są w trzech wersjach funkcjonalnych: base (bazowy) – zna język, ale nie rozumie jeszcze poleceń, instruct (instrukcyjny) – potrafi wykonywać konkretne zadania, np. streszczać, tłumaczyć, pisać, chat (konwersacyjny) – gotowy do rozmowy z użytkownikiem końcowym, uprzejmy i bezpieczny. Dodatkowo modele dzielą się na: komercyjne – dostępne bez ograniczeń licencyjnych, niekomercyjne („nc”) – przeznaczone do badań, edukacji, testów i prywatnego użytku.
Nowość – PLLuM 12B-nc
16 lipca 2025 r. została opublikowana nowa wersja modelu: PLLuM-12B-nc-20250715, dostępna w wersjach base, instruct i chat. Model ten jest już zintegrowany z czatem na stronie: https://pllum.clarin-pl.eu/pllum_12b Można tam również znaleźć poradnik użytkownika (PromptBook), który ułatwia prowadzenie rozmów i testowanie możliwości modelu.
Jak uczymy model języka polskiego?
Podstawą sukcesu są lokalne dane – zróżnicowane teksty od mowy potocznej, przez język urzędowy, po teksty naukowe. Zespoły rozwijające PLLuM pozyskują dane z publicznych repozytoriów, jednostek naukowych oraz od partnerów gotowych współdzielić swoje zasoby. Dodatkowo modele są "dokarmiane" zestawami poleceń i wzorcowych odpowiedzi, co uczy je praktycznego języka – potrzebnego w edukacji, administracji czy aplikacjach biznesowych.
Do czego może się przydać PLLuM?
Zastosowań jest wiele: pisanie i redagowanie tekstów, podsumowywanie dokumentów, wsparcie w nauce i planowaniu zajęć, generowanie treści do aplikacji i czatbotów, obsługa zapytań urzędowych – np. w aplikacji mObywatel. Dzięki technice RAG (Retrieval-Augmented Generation) model może przeszukiwać kontrolowaną bazę wiedzy i odpowiadać na jej podstawie, eliminując problem halucynacji i ograniczeń wynikających z daty odcięcia.
Jak przetestować PLLuM?
Dla każdego: Wejdź na https://pllum.clarin-pl.eu/ i przetestuj model w czacie.
Dla zaawansowanych: Modele dostępne są do pobrania na platformie HuggingFace – można je uruchomić lokalnie, dostosować do własnych potrzeb i wdrażać we własnych rozwiązaniach.