Sudoku za trudne dla sztucznej inteligencji? Nowe badania obnażają słabości AI

Chociaż sztuczna inteligencja zdobywa kolejne dziedziny naszego życia, zetknięcie się z pozornie prostą łamigłówką, jaką jest sudoku, okazuje się dla niej wyzwaniem nie do przejścia. Najnowsze badania potwierdzają: AI nie tylko nie radzi sobie ze złożonymi sudoku, ale i nie potrafi logicznie wyjaśnić swoich działań.
Łamigłówki liczbowe – od starożytnych zagadek do współczesnego sudoku
Łamigłówki matematyczne od zawsze fascynowały ludzi i zajmowały ich umysły, służąc zarówno jako narzędzie rozwoju intelektualnego, jak i forma rozrywki. Ich historia sięga starożytnych Chin, gdzie już tysiące lat temu opracowywano pierwsze gry liczbowe. Przełomem było pojawienie się sudoku – prostej na pierwszy rzut oka łamigłówki, która zdobyła popularność w Japonii w latach 80., a następnie rozprzestrzeniła się na cały świat. Miliony entuzjastów rozwiązują dziś sudoku w gazetach, książkach czy aplikacjach mobilnych. Według danych, tylko mobilnych wersji tej gry pobrało już ponad 200 milionów użytkowników. Sudoku, choć może wydawać się proste, skrywa w sobie ogromną złożoność matematyczną. Badania wykazały, że istnieje aż 6 tryliardów unikalnych poprawnych plansz 9×9. Gra, która wymaga logicznego myślenia, dedukcji i wykluczania opcji, stała się wzorem do testowania możliwości rozumowania przez sztuczną inteligencję.
Wybitne osiągnięcia AI i jej zaskakujące słabości
W ostatniej dekadzie algorytmy sztucznej inteligencji dokonały imponującego postępu. Potrafią analizować gigantyczne zbiory danych, generować teksty i obrazy praktycznie nie do odróżnienia od ludzkich, a nawet tłumaczyć zawiłe języki. Jednak w przypadku zadań wymagających konkretnych reguł logicznych, takich jak sudoku, maszyny napotykają nieoczekiwane bariery. Przez lata inwestowano w rozwój systemów, które miałyby nie tylko rozumieć zasady, ale i efektownie rozwiązywać łamigłówki. Tymczasem najnowsze badania zespołu z Uniwersytetu Kolorado w Boulder wykazały, że nawet najbardziej zaawansowane duże modele językowe (LLM), takie jak Llama-3.1 czy Mistral, są niemal bezradne wobec wygenerowanych przez naukowców sudoku.
Eksperyment: sztuczna inteligencja kontra sudoku
Zespół naukowców pod wodzą Anirudha Maiyi postanowił sprawdzić, jak poradzi sobie sztuczna inteligencja ze specjalnie przygotowaną serią sudoku 6×6 o różnych poziomach trudności. Modele AI otrzymały do rozwiązania 2300 plansz, jednak wyniki okazały się rozczarowujące – skuteczność rozwiązywania wyniosła zaledwie 0,4 procent. Najlepiej poradził sobie model o1, który osiągnął 65 procent poprawnych odpowiedzi na najłatwiejszych zagadkach, jednak jego skuteczność dramatycznie spadała, gdy wzrastała trudność gry. Główną przyczyną tej słabości – jak zauważają badacze – jest fakt, że modele językowe nie posługują się klasyczną logiką. Działają one na zasadzie statystyki i prawdopodobieństwa, przez co mają problem z jednoczesną analizą wszystkich reguł i ograniczeń pojawiających się w sudoku.
AI nie tylko nie radzi sobie z rozwiązywaniem, ale nie umie też uzasadniać odpowiedzi
Kolejny etap eksperymentu wymagał od AI przedstawienia toku rozumowania, czyli pokazania „krok po kroku”, jak dochodzi do konkretnego rozwiązania. Wyniki były jeszcze bardziej alarmujące – tylko w 5 procentach przypadków sztuczna inteligencja potrafiła prawidłowo uzasadnić swój wybór liczby w określonym polu. W pozostałych odpowiedziach pojawiały się błędy, nieścisłości, a nawet absurdalne konkluzje, jak prognozowanie pogody w kontekście rozgrywki. Jeden z badaczy zauważa, że AI często ignorowała aktualną sytuację na planszy lub wykorzystywała zmyślone powody do uzasadnienia swoich decyzji. To pokazuje, jak bardzo modele AI są ograniczone w wyjaśnianiu działań, które dla człowieka wydają się oczywiste i wymagają tylko prostego logicznego uzasadnienia.
Dlaczego AI nie rozumie sudoku?
Sukces człowieka w sudoku polega na ciągłym analizowaniu planszy, wyciąganiu wniosków i korygowaniu błędów na bieżąco. Ludzie mają zdolność przetwarzania informacji wielowątkowo, zauważając zarówno globalne wzorce, jak i lokalne zależności. AI natomiast działa przez generowanie najbardziej prawdopodobnej odpowiedzi na podstawie setek tysięcy przykładów dostępnych w danych treningowych, nie dokonując „żywej” analizy planszy matematycznej. To sprawia, że kiedy pojawi się niestandardowe wyzwanie lub wymagany jest ciąg myślowy inny, niż ten znany z bazy danych, modele językowe gubią się i generują nonsensowne rozwiązania. Takie ograniczenie może być poważnym problemem dla przyszłości AI, zwłaszcza jeśli mielibyśmy jej powierzać zadania wymagające ścisłego przestrzegania reguł i analizy logicznej.
Wnioski i perspektywy: AI jeszcze długo nie dorówna ludzkiemu rozumowi?
Najnowsze badania obnażają ważną kwestię: pomimo nieustannego rozwoju, obecne modele sztucznej inteligencji pozostają narzędziem mocno wyspecjalizowanym, które wciąż daleko odbiega od ludzkiego stylu myślenia i zdolności kojarzenia faktów. Sudoku okazało się „papierkiem lakmusowym” dla przyszłości AI – tam, gdzie wymagane są złożone, wieloetapowe decyzje i precyzyjne logiczne uzasadnienie, maszyny zawodzą z kretesem. Eksperci ostrzegają więc przed nadmiernym zaufaniem do AI w sytuacjach wymagających ścisłego rozumowania. Jednocześnie prowadzone badania pozwalają lepiej zrozumieć, jak przyszłe systemy można ulepszać i rozwijać, by lepiej radziły sobie z zadaniami wymagającymi nie tylko dużej wiedzy, ale i autentycznego myślenia. Jedno pozostaje pewne – na razie sudoku wygrywa z komputerem.