
Świat nauki o sztucznej inteligencji stoi nad przepaścią. Paradoksalnie, to właśnie narzędzia AI, które miały przyspieszyć postęp, doprowadzają do paraliżu badawczego.
Renomowane konferencje toną w tysiącach prac generowanych taśmowo przez modele językowe, a wyłowienie wartościowych odkryć staje się wręcz niemożliwe.
Hany Farid, profesor informatyki na Uniwersytecie Kalifornijskim w Berkeley, w rozmowie z „The Guardian” nie przebiera w słowach. Sytuację w branży nazywa „szaleństwem” i przyznaje, że obecnie odradza swoim studentom specjalizację w dziedzinie AI. Powód? Niemożność przebicia się z rzetelną, przemyślaną pracą przez mur „naukowej papki”.
113 publikacji w rok. Geniusz czy spamer?
Symbolem problemu stał się przypadek Kevina Zhu, świeżo upieczonego licencjata z Berkeley, który chwali się współautorstwem aż 113 prac naukowych opublikowanych w ciągu jednego roku. Dla porównania, rzetelne przeczytanie stu technicznych artykułów w rok jest wyzwaniem dla eksperta, nie mówiąc o ich napisaniu. Profesor Farid nazwał dorobek Zhu „katastrofą”, sugerując, że niemożliwe jest wniesienie merytorycznego wkładu w taką liczbę badań w tak krótkim czasie.
Mechanizm tego „sukcesu” opiera się na programie Algoverse, w którym studenci płacą ponad 3 tysiące dolarów za 12-tygodniowy kurs, a ich prace są masowo wysyłane na konferencje. Efekt? Prestiżowa konferencja NeurIPS, która w 2020 roku otrzymała poniżej 10 tysięcy zgłoszeń, w tym roku została zalana ponad 21,5 tysiącem prac. Aż 89 z nich to dzieła zespołu Zhu.
„Vibe” zamiast nauki
Zjawisko to eksperci określają mianem „vibe coding” – bezrefleksyjnego używania AI do generowania kodu i treści, byle tylko coś działało i wyglądało profesjonalnie. Sam Zhu, pytany o udział AI w tworzeniu prac, unikał jednoznacznej odpowiedzi, zasłaniając się używaniem „standardowych narzędzi produktywności”.
Konsekwencje są dramatyczne. Recenzenci, często sami posiłkujący się AI, przepuszczają prace z halucynacjami, zmyślonymi cytatami, a nawet absurdalnymi grafikami, które nigdy nie powinny trafić do druku. Jak podsumowuje prof. Farid: „Jako przeciętny czytelnik nie masz szans zrozumieć, co dzieje się w literaturze naukowej. Stosunek sygnału do szumu wynosi praktycznie jeden do jednego”.
źródło: a-zjadana-przez-wlasny-ogon-eksperci-alarmuja-ai-zalewa-badania-naukowe-bezwartosciowym-chlamem/
*
AI nie zabiło edukacji, ono tylko pokazało jej zwłoki. Mocna diagnoza profesora z Teksasu
Kiedy Steven Mintz, profesor historii na Uniwersytecie Teksańskim, otworzył 400 esejów przesłanych przez swoich studentów, poczuł dreszcz. Niestety, tym, co ów stan spowodowało nie była bynajmniej ekscytacja jakością otrzymanych treści.
Zdania były takie same. Struktura identyczna. Nawet wnioski się pokrywały. Czy to był masowy atak hakerów? Nie, to była rzeczywistość akademicka w erze sztucznej inteligencji. Jednak zdaniem Mintza, winnym nie jest technologia, lecz system, który od lat przypomina taśmę produkcyjną.
W rozmowie z amerykańskim serwisem Business Insider, profesor stawia tezę, która może zaboleć wielu akademików: AI nie zepsuło studiów – ono jedynie ujawniło, jak bardzo były one zepsute już wcześniej.
Fabryka dyplomów vs. ChatGPT
Według Mintza, uniwersytety od lat funkcjonują w modelu „edukacji uprzemysłowionej”. Masowe wykłady, zestandaryzowane testy i ocenianie według klucza przez przepracowanych asystentów – to wszystko sprawiło, że proces nauczania został odhumanizowany na długo przed nadejściem ChatGPT.
„Kiedy 400 studentów może wygenerować identyczne eseje w 30 sekund, problemem nie są studenci. Problemem jest zadanie” – pisze Mintz.
Śmierć pracy domowej
Co to oznacza dla przyszłości? Profesor nie ma wątpliwości: tradycyjny esej pisany w domu jest martwy. Zadawanie go jako formy weryfikacji wiedzy jest dziś bezcelowe, ponieważ sprawdza dokładnie te umiejętności, w których AI jest już mistrzem: research, rozumienie kontekstu i budowanie argumentacji.
Rozwiązaniem nie jest jednak zakazywanie AI i instalowanie oprogramowania szpiegującego. Mintz proponuje radykalny powrót do korzeni. Koniec z pracami domowymi na ocenę: Weryfikacja wiedzy powinna odbywać się wyłącznie w trybie „twarzą w twarz”.
Prezentacje bez notatek, dyskusje moderowane przez studentów, pisanie prac w sali wykładowej. Krótko mówiąc szlifowanie umiejętności, które powinni posiadać ludzie. A nie realizacja zdalna zadań, które wygeneruje AI.
AI do „kucia”, ludzie do myślenia
Wizja Mintza zakłada nowy podział ról. Sztuczna inteligencja powinna przejąć tzw. mastery learning – czyli naukę faktów, chronologii i podstawowych ram pojęciowych. To uwolni studentów i wykładowców, by mogli skupić się na tzw. inquiry learning – nauce przez zadawanie pytań, etyczne dylematy i kreatywne rozwiązywanie problemów, których maszyna (jeszcze) nie rozumie.
To brutalna diagnoza, ale dająca nadzieję. AI działa tu jak lustro. Jeśli uczelnie zobaczą w nim swoją „zautomatyzowaną” twarz i się przerażą, być może będzie to impuls do reformy, która przywróci studiowaniu ludzki wymiar.