Pilne
Sprawdź relację:
Dzieje się!
Biznes Technologia

Andrzej Dragan o sekretach inteligencji modeli językowych. Czy AI myśli, czy tylko recytuje?

Modele językowe osiągają niesamowite wyniki, rozwiązując zadania z olimpiad matematycznych i bijąc rekordy w dostrzeganiu złożonych wzorców. Czy jednak ten imponujący potencjał jest dowodem na prawdziwe rozumienie? Czy tylko na niezwykle skuteczne zapamiętywanie i recytację? Na to pytanie odpowiedź znalazł prof. Andrzej Dragan.

Istnieją tezy, które potwierdzają fakt "myślenia" modeli generatywnej sztucznej inteligencji. "Na szczęście wciąż da się je wpuścić w maliny" - powiedział prof. Andrzej Dragan.
Są tezy, które potwierdzają fakt "myślenia" modeli generatywnej sztucznej inteligencji. – Na szczęście wciąż da się je wpuścić w maliny – uważa prof. Andrzej Dragan. Fot. Cezary Szczepański, XYZ

Z tego artykułu dowiesz się…

  1. Dlaczego modele językowe potrafią zadziwiać swoją skutecznością, ale jednocześnie nadal można je „przyłapać” na recytowaniu błędnych odpowiedzi z pamięci.
  2. W jaki sposób eksperymenty z bełkotliwymi zagadkami i nieistniejącymi słowami pomagają sprawdzić, czy sztuczna inteligencja naprawdę rozumie, co mówi.
  3. Jak techniki uczenia przez wzmocnienie, inspirowane sukcesem AlphaGo, otworzyły przed AI nowe możliwości, pozwalając jej przekraczać granice ludzkiej pomysłowości.
Loading the Elevenlabs Text to Speech AudioNative Player...

Dyskusja na temat tego, czy modele językowe faktycznie myślą, czy jedynie odtwarzają wyuczone wzorce, jest obecnie jedną z ciekawszych w świecie łączącym filozofię i technologię.

Głos w niej zabrał podczas tegorocznego Infoshare Katowice prof. Andrzej Dragan. Jak podkreślił, podstawowy problem w testowaniu AI polega na trudności w odróżnieniu, czy odpowiedź jest efektem rozumowania, czy recytowania z pamięci danych treningowych. Modele są przecież trenowane na „wszystkim, co jest w internecie”. By to zbadać, potrzebna jest zupełnie nowa, unikatowa myśl. Koncepcję przedstawił Andrzej Dragan.

Papuga czy zdolny uczeń? Testowanie modeli poza bazą danych

Aby sprawdzić rzeczywiste zdolności rozumowania modelu, należałoby zadać mu pytanie, które jest dla niego całkowicie nowe. Profesor Dragan posłużył się przykładem zagadki logicznej, którą sam wymyślił, a której treść celowo nie była dostępna w internecie. Okazało się, że większość modeli, przynajmniej do niedawna, nie była w stanie na nią odpowiedzieć.

– To jest fantastyczna informacja. To jest de facto potwierdzenie tego, że model tego zadania nie zna – powiedział Andrzej Dragan.

Dopiero w tym momencie, jak wyjaśnia Dragan, można rozpocząć testowanie, czy model jest więc zdolny do rozumowania. Model, który otrzymał zbyt trudne pytanie i pozornie nic niewnoszącą podpowiedź, zdołał połączyć te elementy, by uzyskać właściwe rozwiązanie.

Aby ostatecznie dowieść recytowania z pamięci, profesor użył specjalnie skonstruowanej „zasadzki”. Zagadka powstała na bazie nieistniejących słów, takich jak „Szwak szlami gra szlabiami”. Model poradził sobie z nią. Przyjął założenie, że „szlami” oznacza „kłamie”, po czym rozwiązał problem logiczny, dając poprawną odpowiedź. Dlaczego?

AI łączy kropki

Okazało się, że model dopasował bełkotliwy tekst do jednej z bardzo znanych zagadek w języku polskim, dotyczącej panów Abackiego, Babackiego i Cabackiego, którzy kolejno stwierdzają, że ktoś kłamie. Model, znając to rozwiązanie z danych treningowych, zastosował je do nowego, bełkotliwego tekstu.

– Ewidentnie model zagadkę znał. Przyłapaliśmy go na tym, że zna zagadkę, bo dopasował moją bełkotliwą treść do tej zagadki. Odpowiedział, zapewne recytując z pamięci rozwiązanie tego znanego sobie problemu – powiedział Andrzej Dragan.

Choć z pozoru wydaje się to tylko dowodem na bycie „papugą”, zdaniem Dragana, model pokazał drugą, bardzo istotną umiejętność: zdolność dostrzegania analogii. Zorientował się, że nowy, bełkotliwy tekst, przypomina zagadkę, na której był trenowany. Ta umiejętność – dostrzeganie podobieństw między danymi treningowymi a nowym zapytaniem – jest kluczowa dla niezwykłych możliwości tych modeli.

Profesor Dragan porównał to do uczenia studentów mechaniki kwantowej. Student uczy się rozwiązywać zadania na podstawie przykładów, a następnie na egzaminie ma zastosować te same techniki do analogicznych problemów. Im bardziej zadanie jest odmienne od tego, czego student był uczony, tym większa szansa, że obleje egzamin. Podobnie jest z modelem językowym – umiejętność dostrzegania analogii jest kluczowa dla jego poprawnego działania.

Co tak naprawdę mierzy inteligencja?

Zdolność do dostrzegania analogii jest nie tylko kluczowa dla działania AI, ale także dla pomiaru ludzkiej inteligencji. Jak stwierdził Andrzej Dragan, wszystkie testy inteligencji mierzą w zasadzie wyłącznie tę umiejętność. Przykłady, takie jak sekwencje rysunków lub ciągi liczbowe wymagają zauważenia analogicznego prawa rządzącego elementami.

Umiejętność ta stoi również za wieloma wybitnymi osiągnięciami naukowymi. Newton na przykład zauważył, że prawa fizyki opisujące spadające jabłko są analogiczne do praw opisujących ruch planet. Analogia jest wszechobecna także w języku.

– Ewidentnie modele językowe potrafią dostrzegać analogię. To jest pattern matching czy rozpoznawanie wzorców i czy to jest inteligencja, czy nie, to już jest kwestia naszego wyboru, naszej definicji, ale modele właśnie to robią – powiedział Andrzej Dragan.

Dlaczego sieci neuronowe są stworzone do analogii?

Profesor Dragan przeszedł do fundamentalnych podstaw matematycznych. Wytłumaczył, dlaczego sieci neuronowe są idealnym schematem do rozpoznawania analogii. Opiera się to na twierdzeniu o lokalnej aproksymacji (twierdzenie Kurta, Hornika i innych), które mówi, że dowolna funkcja – dowolna „skrzynka” zamieniająca dane wejściowe na wyjściowe – może być dowolnie dobrze przybliżona działaniem pewnej sieci neuronowej.

W praktyce sieć neuronowa sprawdza sposób, jak bardzo dane wejściowe pasują do zbioru danych, na których sieć była trenowana. Ta umiejętność dostrzegania analogii gwarantuje modelom zdolność do generalizowania. Dzięki niej potrafią odpowiadać na pytania, których nigdy nie widziały w danych treningowych. Jednocześnie przypominają coś, co było w tych danych.

Rewolucja w treningu AI

Wiele wczesnych modeli językowych charakteryzowało się „zamkniętą bazą wiedzy”. Były w stanie odpowiadać na pytania podobne do tych, które "widziały", ale nie były zdolne do wybitnie oryginalnych posunięć.

Prawdziwym przełomem, który umożliwił modelom wyjście poza imitację, okazało się uczenie przez wzmocnienie (ang. reinforcement learning). Dragan przywołał przykład programu AlphaGo. Ten początkowo był trenowany przez imitowanie gier ludzkich, co prowadziło do dobrego, ale nie wybitnego poziomu gry. Następnie, w drugiej fazie treningu, program zaczął grać sam ze sobą (self-play). Na podstawie wygranych i przegranych dostawał informację zwrotną (nagrodę za zwycięstwo, karę za porażkę), a algorytm wsteczny poprawiał styl gry.

Ten typ treningu nie jest już ograniczony wiedzą człowieka. Doprowadził do zwycięstwa AlphaGo nad mistrzem świata i słynnego posunięcia numer 37, które wszystkich zszokowało swoją oryginalnością.

– 37 to był taki piękny przykład niezwykłej oryginalności posunięcia, którego nie było w żadnych danych treningowych. Model był w stanie do tego dojść przez grę sam ze sobą, przez uczenie przez wzmocnienie – powiedział profesor Dragan.

Pojawiło się pytanie, czy ten sam styl treningu można wdrożyć do modeli językowych, aby umożliwić im „wychodzenie poza to, czego modele się uczyły od ludzi”. Odpowiedź? Tak, choć znaleziono ją całkiem niedawno. Pokazano, że można w ten sposób wytrenować modele do rozwiązywania zadań z matematyki na poziomie olimpiadowym.

Im dłużej myślisz, tym lepiej

Obecnie, eksperymentalne modele językowe, takie jak wczesne wersje GPT-5 czy modele firmy Deep Mind są w stanie rozwiązywać zadania z olimpiady matematycznej. Osiągają to dzięki "dotrenowywaniu" technikami zbliżonymi do self-play AlphaGo Zero. Model generuje różne strumienie myśli, które są odpowiedzią na zadanie. Jeśli strumień myśli prowadzi do poprawnej odpowiedzi, jest wzmacniany, a jeśli do błędnej – osłabiany.

Co więcej, im dłużej te modele „myślą” nad odpowiedzią (może trwać to nawet wiele godzin), tym lepsze dają rezultaty. Ten wzrost kompetencji jest szokujący. Modelom udało się nawet zacząć rozwiązywać zadania z akademickiego benchmarku Frontier Math, które potrafią zajmować ekspertom matematykom z doktoratami tygodnie lub miesiące myślenia.

– Wydaje się, że to, co miało być niemożliwe jeszcze przez wiele dekad, staje się możliwe po paru miesiącach. Żyjemy w bardzo ciekawych czasach – podsumował Andrzej Dragan.

Mimo tych fantastycznych osiągnięć, kompetencje modeli pozostają bardzo nierówne. Profesor Dragan na pocieszenie podaje przykład modyfikacji zagadki z rolnikiem, wilkiem i sianem. Po modyfikacji zasad najlepsze modele nadal „recytują z pamięci nie to zadanie, co trzeba” i „gadają bzdury”.

Oznacza to, że na pytanie, czy modele są papugami, czy rozumują, nie ma jednoznacznej odpowiedzi. Modele „trochę memoryzują, trochę rozpoznają wzorzec” – podobnie jak ludzie czy studenci. Zdolność do rozumowania jest jednak „bardzo nierówna i wciąż wymaga jeszcze dużo pracy”.

Główne wnioski

  1. Modele językowe wykazują imponującą zdolność do rozwiązywania zadań dzięki rozpoznawaniu wzorców i analogii, co stanowi podstawę zarówno ich działania, jak i ludzkiego rozumowania. Jak podkreśla prof. Andrzej Dragan, nie chodzi jedynie o recytowanie zapamiętanych informacji – kluczową umiejętnością tych systemów jest kojarzenie nowych problemów z wcześniej poznanymi strukturami. To pozwala modelom na stosowanie znanych rozwiązań w nowych kontekstach, co jest zbliżone do ludzkiej zdolności do myślenia przez analogie.
  2. Mimo że modele AI potrafią zaskakiwać oryginalnością, np. przez zastosowanie technik samodoskonalenia podobnych do AlphaGo Zero, ich zdolność do rozumowania nie jest jednolita ani w pełni przewidywalna. Eksperymenty Dragana pokazują, że niektóre zadania logiczne wciąż przerastają modele, które zamiast rozwiązać problem, przywołują błędne odpowiedzi z pamięci. Świadczy to o dużej rozpiętości jakości odpowiedzi i konieczności dalszego udoskonalania architektury oraz procesu uczenia.
  3. Kluczową zmianą w ewolucji AI okazało się przejście od prostego odtwarzania ludzkich danych do nauki przez wzmocnienie, czyli systematycznego poprawiania się na podstawie wyników. Ta forma treningu umożliwiła modelom osiąganie wyników wcześniej uważanych za niemożliwe, np. rozwiązywanie zadań wymagających głębokiego namysłu. Jednak pomimo tych przełomów, sztuczna inteligencja nadal balansuje między zapamiętywaniem a rozumieniem, co sprawia, że ocena jej prawdziwej „inteligencji” pozostaje otwarta i zależy od przyjętej definicji.