Zmiana Paradygmatu w AI: Od Modeli Językowych do Modeli Świata dla Inteligencji Ucieleśnionej
Edytowane przez: firstname lastname
Trajektoria badań nad Sztuczną Inteligencją Ogólną (AGI) w roku 2025 wykazuje wyraźny zwrot, odchodząc od dominacji Dużych Modeli Językowych (LLM) na rzecz koncepcji „modeli świata”. Modele te mają na celu wyposażenie systemów sztucznej inteligencji w zdolność symulowania i rozumowania na temat fizycznej rzeczywistości, co jest kluczowe dla przezwyciężenia fundamentalnego ograniczenia LLM, jakim jest brak intuicyjnego pojmowania fizyki i przyczynowości. Ten konsensus w środowisku naukowym podkreśla rosnące zapotrzebowanie na systemy AI zdolne do interakcji z realnym światem, wykraczające poza samą predykcję sekwencji słów.
Krytyka obecnego paradygmatu LLM jest coraz bardziej słyszalna, zwłaszcza ze strony autorytetów takich jak kognitywista Gary Marcus, profesor emerytowany na Uniwersytecie Nowojorskim. Marcus konsekwentnie utrzymuje, że modele językowe są z natury ograniczone pod względem niezawodności i zdolności rozumowania, opowiadając się za podejściami neuro-symbolicznymi, które jawnie programują zasady rządzące światem. Jego stanowisko sugeruje, że czyste uczenie głębokie nie wystarczy do osiągnięcia AGI, a systemy muszą posiadać wewnętrzne, ugruntowane modele świata, ponieważ obecne modele wciąż ulegają halucynacjom i popełniają błędy logiczne.
W odpowiedzi na potrzebę ugruntowania wiedzy, czołowe ośrodki badawcze prezentują konkretne implementacje modeli świata. Profesor Fei-Fei Li ze Stanfordu, założycielka startupu World Labs we wrześniu 2024 roku, zaprezentowała Marble, model świata skoncentrowany na inteligencji przestrzennej. Jej praca ma na celu umożliwienie systemom generowania i symulowania trójwymiarowych wszechświatów na podstawie danych multimodalnych, co ma być kluczem do inteligencji przestrzennej. Jednocześnie Google DeepMind kontynuuje rozwój symulacji, wprowadzając Genie 3, model zdolny do generowania interaktywnych środowisk 3D w czasie rzeczywistym z rozdzielczością 720p i 24 klatkami na sekundę.
Ten strategiczny rozłam w badaniach został uwypuklony przez odejście Yann LeCuna, laureata Nagrody Turinga i byłego głównego naukowca ds. AI w Meta, który opuścił firmę, by uruchomić własny startup. Jego wyłącznym celem jest budowa modeli świata, postrzegając LLM jako potencjalną ślepą uliczkę dla inteligencji ucieleśnionej. Decyzja LeCuna zbiegła się z restrukturyzacją Meta, gdzie laboratorium FAIR zostało włączone do Meta Superintelligence Lab pod kierownictwem Alexandra Wanga, co sygnalizuje przesunięcie priorytetów firmy w stronę komercjalizacji produktów LLM. Nowy projekt LeCuna ma ruszyć w styczniu 2026 roku, koncentrując się na systemach symulujących scenariusze w celu budowania zdroworozsądkowego rozumowania.
Rozwój modeli świata, które potrafią utrzymać spójność środowiska i pozwalają na interakcję w czasie rzeczywistym, wskazuje na fundamentalną zmianę w priorytetach branży. Podczas gdy LLM koncentrowały się na języku, modele świata skupiają się na fizyce, geometrii i przyczynowości, co jest niezbędne dla agentów ucieleśnionych, takich jak roboty przemysłowe czy systemy autonomiczne. W szerszym kontekście, ten ruch jest zgodny z wezwaniami naukowców, w tym Iana Goodfella z Google DeepMind, do wyznaczenia „czerwonych linii” dla AI, aby zapewnić, że postęp technologiczny będzie szedł w parze z bezpieczeństwem i ugruntowanym rozumieniem rzeczywistości. W 2025 roku, w obliczu rekordowych inwestycji w infrastrukturę obliczeniową, zdolność do symulowania i interakcji ze światem staje się nowym wyznacznikiem postępu w kierunku AGI.
72 Wyświetlenia
Źródła
Marketplace
The Guardian
Nasdaq
Observer
Observer
Przeczytaj więcej wiadomości na ten temat:
Czy znalazłeś błąd lub niedokładność?Rozważymy Twoje uwagi tak szybko, jak to możliwe.



