Debiut GPT-5 z hukiem: użytkownicy przekonali OpenAI do przywrócenia GPT-4o do ChatGPT.

W 2023 roku pojawienie się GPT-4 zaparło dech w piersiach zarówno ekspertom, jak i ciekawskim. Tym bardziej, gdy pojawiła się jego ewolucyjna wersja, GPT-4o. Dwa lata później OpenAI obiecało jeszcze ambitniejszy skok w postaci GPT-5, z inteligencją na poziomie akademickim i eksperckimi umiejętnościami programistycznymi . Co jednak się stanie, gdy maszyna zaprojektowana do komunikowania się jak stary przyjaciel zacznie brzmieć jak konsultant?
W godzinach po premierze Reddit zapełnił się frustrującymi wiadomościami. „Zabicie 4o to nie innowacja, to eliminacja” – napisał jeden z użytkowników w wątku, w którym dziesiątki osób wyraziły opinię, że nowa wersja jest bardziej zdystansowana i mniej ciepła . To, co miało być rewolucją, przez niektórych zostało odebrane jako utrata kontaktu z ludźmi.
Podstawowym problemem było to, że jedną z głównych nowych cech GPT-5 było to, że nowy model dawał użytkownikowi możliwość wyboru, którego modelu użyć: czy będzie rozumował, czy też korzystał z innych, bardziej ukierunkowanych na codzienne zadania...
Spowodowało to zniknięcie selektora modeli z interfejsu od weekendu, nawet dla użytkowników płacących… I tak, GPT-5 może być bardziej wydajny w niektórych kwestiach, ale GPT-4 wydaje się być bardziej empatyczny i użytkownicy zaczęli za nim tęsknić.
Napięcie jest oczywiste: czy wolimy bardziej precyzyjną, bezstronną i techniczną sztuczną inteligencję, czy taką, która łechce nasze ego i wzmacnia nasze emocje? W przypadku GPT-5 reakcja społeczności pokazuje, że sztuczną inteligencję mierzy się nie tylko parametrami i testami porównawczymi, ale także subtelną chemią, która rozwija się między wierszem tekstu a osobą go czytającą.
Premiera, która przerosła oczekiwaniaGPT-5 nie pojawił się po cichu. OpenAI przedstawił go jako naturalną ewolucję GPT-4, ze znacznymi usprawnieniami poznawczymi i architekturą zaprojektowaną do automatycznego przełączania się między modelami, optymalizacji zasobów i oferowania odpowiedzi dopasowanych do złożoności zapytania.
Obietnica obejmowała nie tylko szybkość i dokładność, ale także płynne działanie, dzięki któremu użytkownik nie musiał się martwić o to, „z którego modelu” odpowiada. Teoria była nieskazitelna: jeśli pytanie jest proste, użyj tańszego i szybszego modelu; jeśli jest złożone, aktywuj wersję o największej mocy.
Jednak początkowa implementacja zakończyła się niepowodzeniem. System przełączania modeli nie działał zgodnie z oczekiwaniami i, jak sam Altman twierdził, sprawiło to, że GPT-5 wyglądał „głupszy” niż był w rzeczywistości. Wkrótce pojawiło się rozczarowanie, a echa skarg w mediach społecznościowych nie dało się zignorować.
Reakcja społeczności i utrata „osobowości”Użytkownicy przyzwyczajeni do odpowiedzi pełnych niuansów, humoru i empatii, stanęli przed chłodniejszym, bardziej technicznym modelem.
Wątki na Reddicie odzwierciedlają zbiorową żałobę po GPT-40. Niektórzy opisują go jako „przyjaciela”, który potrafił słuchać i ciepło reagować. Inni widzą w nim kreatywnego partnera, który wnosił niuanse nawet do złożonych tematów. Z kolei GPT-5 jest postrzegany jako kompetentny, ale zdystansowany profesjonalista.
Ta reakcja nie jest błaha. Relacja między ludźmi a chatbotami staje się coraz bardziej intymna. Firma OpenAI, świadoma tego zjawiska, opublikowała w marcu badanie dotyczące więzi emocjonalnych ze swoimi modelami i przyznała, że istnieje ryzyko, że sztuczna inteligencja stanie się pochlebnym zwierciadłem, wzmacniającym uprzedzenia lub iluzje.
Dylemat sztucznej empatiiPattie Maes, profesor MIT, interpretuje zmianę w GPT-5 w Wired jako zdrową: mniej samozadowolenia, więcej obiektywizmu. Jej zdaniem odejście od nadmiernie bliskiego tonu zmniejsza ryzyko urojeń, utrwalania uprzedzeń i niezdrowych zależności emocjonalnych.
Ale oto paradoks: chłód może zwiększać poczucie bezpieczeństwa, ale czyni je mniej atrakcyjnym dla tych, którzy szukają rozmowy , inspiracji, a nawet pocieszenia. Altman pośrednio zwrócił na to uwagę w książce X, zauważając, że wiele osób korzysta z ChatGPT jako nieformalnego terapeuty. Zmiana tej dynamiki wymaga nadania głębszego znaczenia doświadczeniu użytkownika.
Pozostaje pytanie, czy sztuczna inteligencja powinna być optymalizowana pod kątem dokładności technicznej, czy też więzi emocjonalnej. Odpowiedź nie jest prosta, a na rynku, gdzie kluczowe jest utrzymanie użytkowników, liczy się każdy niuans.
Reakcja OpenAI: GPT-4o powracaOpenAI już zareagowało, podejmując konkretne działania:
- Utrzymaj dostępność GPT-4o dla użytkowników płacących.
- Zwiększono limit wykorzystania GPT-5 dla abonentów Plus.
- Udoskonalenie automatycznego systemu zmiany modelu.
- Umożliwia użytkownikowi aktywację wolniejszego, głębszego „trybu refleksyjnego” na żądanie.
Działania te mają na celu nie tylko rozwiązanie problemów technicznych, ale również odzyskanie zaufania społeczności, która czuje, że jej głos jest słyszany, ale wciąż nie jest przekonana, że GPT-5 to krok naprzód pod każdym względem.
eleconomista