Z różnych stron świata użytkownicy ChatGPT donoszą o coraz gorszej jakości generowanych przez sztuczną inteligencję odpowiedzi. Wygląda to dosłownie tak, jakby AI po prostu głupiało. To jakby człowiek w pierwszym stadium otępienia starczego. Każdy, kto ma dość częstą sposobność do korzystania z ChatGPT mógł zauważyć tą słabnącą jakość odpowiedzi.
Niżej tego typu przykład, a odpowiedź to rozbudowa tekstu dotyczącego sprzedaży używanych samochodów. Jest to fragment, ale cały tekst był równie słaby. Odpowiedź stylistycznie brzmi jak wypowiedź człowieka, który w najlepszym razie po prostu się nie wyspał. Do tego coraz częściej zaczynają pojawiać się błędy gramatyczne.
Pozbądź się negatywnych uczuć i przestanij szukać nabywcy na własną rękę. Oddaj swoje zaufanie profesjonalistom z naszej firmy skupującej w Warszawie, aby przekonać się, jak bezproblemowo możesz zbyć swój pojazd.
Do tematu „chorującej na uwstecznienie AI” zasiedli także naukowcy z Uniwersytetu Stanforda i Uniwersytetu Kalifornijskiego w Berkeley, którzy potwierdzili, że jakość generowanych odpowiedzi przez AI jest wyraźnie gorsza od tych sprzed kilku miesięcy.
Wnikając w wyniki badań można dopatrzeć się spadku umiejętności rozwiązywania problemów matematycznych w nowszej wersji. GPT-4 wykazały szokujący spadek biegłości w identyfikowaniu liczb pierwszych.
Spadek nastąpił z poziomu 97,6% w marcu do 2,4% w czerwcu. Dla porówniania poprzednik, czyli GPT-3.5 wykazał znaczną poprawę w tym samym okresie, wzrastając z 7,4% do 86,8%.
Badacze nie są w stanie precyzyjnie określić z czego wynika ta sytuacja. Sugerują, że jest to kwestia zmian wprowadzanych przez OpenAI w celu poprawy stabilności GPT-4 oraz zmniejszenia zasobożerności.
Ale to nie wyjaśnia poprawy jaką zauważono w przypadku GPT-3.5. Naukowcy podają więc kolejne wyjaśnienia, że gorszy wynik GPT-4 może być związany z bardziej rygorystyczną cenzurą, przykładowo dotyczącą broni, narkotyków itd.
Użytkownicy, jak i badacze są zdezorientowani. W końcu można by oczekiwać, że nowsze wersje AI będą lepsze od swoich poprzedników.
Sytuacja jest niepokojąca, ponieważ wskazuje jak bardzo zaawansowane narzędzie, jakim jest generatywna sztuczna inteligencja, jest podatna na aktualizacje i ulepszenia.
Wskazuje to dość mocno na nieprzewidywalność tej technologii. Biegłość GPT-4 w generowaniu kodu wykazała spadek w tworzeniu kodu bezpośrednio wykonywalnego. To budzi obawy w branżach, które polegają na tych modelach, ponieważ tego typu niespójności mogą namieszać w większych ekosystemach oprogramowania.
Najważniejszy wniosek z tych badań jest taki, że nowsze nie oznacza lepsze i należy zachować czujność w trakcie pracy nad dużymi modelami językowymi, jak to ładnie nazywa się w branży tego typu sztuczną intelignecję.
Czujność powinni zachować wszyscy bez wyjątku – twórcy oraz użytkownicy.
0 komentarzy