Bielik wypuścił nowy model. To "Sójka", która pozwoli na walkę z toksycznymi treściami

Bielik.AI udostępnił pierwszą wersję Bielik Guard czyli „Sójki”. To model sztucznej inteligencji zaprojektowany do wykrywania toksycznych treści w komunikacji cyfrowej.

Jak deklarują twórcy Bielika, to jedno z pierwszych w Polsce narzędzi typu „guardrails”, działające w czasie rzeczywistym i gotowe do integracji z aplikacjami, serwisami społecznościowymi czy chatbotami.

Polski model „Sójka”

„Sójka” to niewielki model, około 100 razy mniejszy od Bielika i około 10 tysięcy razy mniejszy od ChatGPT. Dzięki temu działa sprawnie na zwykłych procesorach (CPU), bez konieczności wykorzystywania kosztownych kart graficznych czy dedykowanych serwerów.

Jak deklarują twórcy Bielika, otwiera to drogę do wdrożeń w małych i średnich firmach, organizacjach pozarządowych czy instytucjach publicznych, które do tej pory były poza zasięgiem najnowszych rozwiązań AI.

- Sójka powstała w odpowiedzi na realne i poważne zagrożenia, z którymi codziennie mierzymy się w internecie. Ostatnie badania pokazują, że niemal połowa polskich nastolatków doświadczyła cyberprzemocy, a ponad 70 proc. młodych ludzi uważa mowę nienawiści za jeden z największych problemów sieci. Co gorsza, większość ofiar przemocy seksualnej w internecie nie mówi o tym nikomu, pozostając z problemem zupełnie sama. To dowód, że potrzebujemy takich narzędzi jak Bielik Guard, które chronią użytkowników - zanim toksyczne treści zdążą wyrządzić szkodę - komentuje Jan Maria Kowalski, lider projektu Sójka.

„Sójka” i jej efektywność

Ambicją twórców jest, żeby zatrzymywać co najmniej 9 na 10 toksycznych treści. Model klasyfikuje treści do pięciu głównych kategorii: mowy nienawiści, wulgaryzmów, treści seksualnych, działalności przestępczej oraz samookaleczania. Co istotne, nie ogranicza się do wyboru jednej kategorii – potrafi przypisać tekst do kilku jednocześnie, a wyniki podaje w formie prawdopodobieństwa. Oznacza to, że użytkownik może sam decydować, jakie progi bezpieczeństwa przyjąć.

Pierwsza wersja obsługuje wyłącznie język polski i – jak podkreślają twórcy – ma charakter eksperymentalny. Niektóre decyzje modelu mogą odzwierciedlać subiektywne oceny anotatorów, co stanowi jednocześnie wyzwanie i atut: „Sójka” uczy się od różnorodnych perspektyw społecznych.

Kolejne etapy rozwoju obejmują:

● rozszerzenie modelu o język angielski,

● poprawę dokładności dzięki informacjom zwrotnym od użytkowników,

● dodanie nowych kategorii, takich jak dezinformacja czy defraudacje

Model jest dostępny publicznie do testów.

Za projektem stoi Bielik.AI - społeczność ekspertów i pasjonatów sztucznej inteligencji, której celem jest rozwijanie otwartych, etycznych i dostępnych narzędzi AI. „Sójka” to dowód, że nowoczesna technologia nie musi oznaczać ogromnych kosztów obliczeniowych - małe modele mogą skutecznie wspierać bezpieczeństwo komunikacji w sieci.