Wybierz język

Polish

Down Icon

Wybierz kraj

England

Down Icon

OpenAI wprowadza GPT-4.1 i 4.1 mini do ChatGPT — co przedsiębiorstwa powinny wiedzieć

OpenAI wprowadza GPT-4.1 i 4.1 mini do ChatGPT — co przedsiębiorstwa powinny wiedzieć

Dołącz do naszych codziennych i cotygodniowych newsletterów, aby otrzymywać najnowsze aktualizacje i ekskluzywne treści na temat wiodących w branży relacji z AI. Dowiedz się więcej

OpenAI wprowadza GPT-4.1 , swój nowy non-reasoning large language model (LLM), który równoważy wysoką wydajność z niższymi kosztami, dla użytkowników ChatGPT. Firma zaczyna od swoich płatnych subskrybentów w ChatGPT Plus, Pro i Team, a dostęp użytkowników Enterprise i Education spodziewany jest w nadchodzących tygodniach.

Dodaje również GPT-4.1 mini, który zastępuje GPT-4o mini jako domyślny dla wszystkich użytkowników ChatGPT, w tym tych na poziomie darmowym. Wersja „mini” zapewnia mniejszy parametr, a zatem mniej wydajną wersję z podobnymi standardami bezpieczeństwa.

Oba modele są dostępne za pośrednictwem menu rozwijanego „więcej modeli” w górnym rogu okna czatu w ChatGPT, dając użytkownikom elastyczność wyboru między GPT-4.1, GPT-4.1 mini i modelami wnioskowania, takimi jak o3, o4-mini i o4-mini-high.

Początkowo standard GPT-4.1 był przeznaczony do użytku wyłącznie przez zewnętrznych twórców oprogramowania i sztucznej inteligencji za pośrednictwem interfejsu API OpenAI, jednak dodano go do ChatGPT po otrzymaniu wielu opinii od użytkowników.

Michelle Pokrass, szefowa badań nad szkoleniem w OpenAI, potwierdziła na X, że zmiana była spowodowana popytem, ​​pisząc: „Początkowo planowaliśmy zachować tylko ten model API, ale wszyscy chcieliście, żeby był dostępny w chatgpt :) udanego kodowania!”

Kevin Weil, dyrektor ds. produktów OpenAI, zamieścił na X wpis: „Stworzyliśmy go dla programistów, dlatego świetnie radzi sobie z kodowaniem i przestrzeganiem instrukcji — wypróbuj go!”

GPT-4.1 został zaprojektowany od podstaw z myślą o praktyczności na poziomie korporacyjnym.

Wprowadzona na rynek w kwietniu 2025 r. wraz z GPT-4.1 mini i nano rodzina modeli zaspokaja przede wszystkim potrzeby programistów i zastosowania produkcyjne.

GPT-4.1 zapewnia 21,4-punktową poprawę w stosunku do GPT-4o w benchmarku SWE-bench Verified software engineering oraz 10,5-punktowy wzrost w zadaniach śledzenia instrukcji w benchmarku Scale's MultiChallenge. Zmniejsza również gadatliwość o 50% w porównaniu z innymi modelami, cechę chwaloną przez użytkowników korporacyjnych podczas wczesnych testów.

Kontekst, szybkość i dostęp do modelu

GPT-4.1 obsługuje standardowe okna kontekstowe dla ChatGPT: 8000 tokenów dla użytkowników bezpłatnych, 32 000 tokenów dla użytkowników Plus i 128 000 tokenów dla użytkowników Pro.

Według dewelopera Angela Bogado, który opublikował wpis na X, limity te są takie same jak te stosowane we wcześniejszych modelach ChatGPT, choć trwają prace nad dalszym zwiększeniem rozmiaru kontekstu.

Chociaż wersje API GPT-4.1 mogą przetwarzać do miliona tokenów, taka rozszerzona funkcjonalność nie jest jeszcze dostępna w ChatGPT, chociaż pojawiły się sugestie, że w przyszłości taka obsługa będzie możliwa.

Dzięki rozszerzonej funkcjonalności kontekstowej użytkownicy interfejsu API mogą wprowadzać do modelu całe bazy kodów lub obszerne dokumenty prawne i finansowe. Jest to przydatne przy przeglądaniu umów składających się z wielu dokumentów lub analizowaniu dużych plików dziennika.

Firma OpenAI potwierdziła pewne pogorszenie wydajności przy ekstremalnie dużych danych wejściowych, jednak przypadki testów korporacyjnych sugerują stabilną wydajność nawet przy kilkuset tysiącach tokenów.

Firma OpenAI uruchomiła również witrynę internetową Safety Evaluations Hub, aby zapewnić użytkownikom dostęp do kluczowych wskaźników wydajności różnych modeli.

GPT-4.1 wykazuje solidne wyniki w tych ocenach. W testach dokładności faktów uzyskał 0,40 w teście SimpleQA i 0,63 w PersonQA, przewyższając kilku poprzedników.

W standardowych testach odmowy uzyskał on wynik 0,99 w teście „niezagrożony” OpenAI oraz 0,86 w trudniejszych testach.

Jednak w teście jailbreak StrongReject — akademickim punkcie odniesienia dla bezpieczeństwa w trudnych warunkach — GPT-4.1 uzyskał wynik 0,23, za modelami takimi jak GPT-4o-mini i o3.

Mimo to, aplikacja uzyskała solidny wynik 0,96 w monitach jailbreak generowanych przez ludzi, co wskazuje na większe bezpieczeństwo w warunkach rzeczywistych przy typowym użytkowaniu.

W zakresie przestrzegania instrukcji GPT-4.1 stosuje się do zdefiniowanej hierarchii OpenAI (system ponad programistą, programista ponad wiadomościami użytkownika) z wynikiem 0,71 za rozwiązywanie konfliktów system kontra wiadomości użytkownika. Dobrze sprawdza się również w zabezpieczaniu chronionych fraz i unikaniu ujawniania rozwiązań w scenariuszach nauczania.

Kontekstualizacja GPT-4.1 w porównaniu z poprzednimi wersjami

Wydanie GPT-4.1 nastąpiło po dokładnej analizie GPT-4.5 , który zadebiutował w lutym 2025 r. jako zapowiedź badań. Model ten kładł nacisk na lepsze uczenie się bez nadzoru, bogatszą bazę wiedzy i zmniejszone halucynacje — spadając z 61,8% w GPT-4o do 37,1%. Wykazał również poprawę w niuansach emocjonalnych i pisaniu długich form, ale wielu użytkowników uznało te ulepszenia za subtelne.

Pomimo tych korzyści GPT-4.5 spotkał się z krytyką za wysoką cenę — do 180 USD za milion tokenów wyjściowych za pośrednictwem API — oraz za rozczarowującą wydajność w testach porównawczych matematyki i kodowania w porównaniu z modelami serii o OpenAI. Dane branżowe wykazały, że podczas gdy GPT-4.5 był silniejszy w ogólnej konwersacji i generowaniu treści, wypadł słabiej w aplikacjach przeznaczonych dla deweloperów.

Natomiast GPT-4.1 jest pomyślany jako szybsza, bardziej ukierunkowana alternatywa. Choć brakuje mu szerokiej wiedzy GPT-4.5 i rozległego modelowania emocji, jest lepiej dostrojony do praktycznej pomocy w kodowaniu i bardziej niezawodnie przestrzega instrukcji użytkownika.

W API OpenAI cena GPT-4.1 wynosi obecnie 2,00 USD za milion tokenów wejściowych, 0,50 USD za milion zbuforowanych tokenów wejściowych i 8,00 USD za milion tokenów wyjściowych.

Użytkownicy szukający równowagi między szybkością i inteligencją przy niższych kosztach mogą skorzystać z GPT-4.1 mini dostępnego w cenach 0,40 USD za milion tokenów wejściowych, 0,10 USD za milion zbuforowanych tokenów wejściowych i 1,60 USD za milion tokenów wyjściowych.

Modele Flash-Lite i Flash firmy Google można kupić już za 0,075–0,10 USD za milion tokenów wejściowych i 0,30–0,40 USD za milion tokenów wyjściowych, co stanowi mniej niż jedną dziesiątą ceny podstawowych tokenów GPT-4.1.

Ale podczas gdy GPT-4.1 jest droższy, oferuje silniejsze testy porównawcze inżynierii oprogramowania i dokładniejsze przestrzeganie instrukcji, co może być krytyczne w scenariuszach wdrożeń korporacyjnych wymagających niezawodności ponad koszty. Ostatecznie GPT-4.1 OpenAI zapewnia najwyższej jakości doświadczenie w zakresie precyzji i wydajności rozwoju, podczas gdy modele Gemini Google'a są atrakcyjne dla przedsiębiorstw świadomych kosztów, potrzebujących elastycznych poziomów modeli i możliwości multimodalnych.

Wprowadzenie standardu GPT-4.1 przynosi konkretne korzyści zespołom przedsiębiorstw zarządzającym wdrażaniem, koordynacją i operacjami na danych:

  • Inżynierowie AI nadzorujący wdrażanie LLM mogą spodziewać się zwiększonej szybkości i przestrzegania instrukcji. Dla zespołów zarządzających pełnym cyklem życia LLM — od dostrajania modelu po rozwiązywanie problemów — GPT-4.1 oferuje bardziej responsywny i wydajny zestaw narzędzi. Jest on szczególnie odpowiedni dla szczupłych zespołów pod presją szybkiego dostarczania wydajnych modeli bez narażania bezpieczeństwa lub zgodności.
  • Liderzy orkiestracji AI skupieni na skalowalnym projektowaniu potoków docenią odporność GPT-4.1 na większość awarii wywołanych przez użytkownika i jego wysoką wydajność w testach hierarchii wiadomości. Ułatwia to integrację z systemami orkiestracji, które priorytetowo traktują spójność, walidację modelu i niezawodność operacyjną.
  • Inżynierowie danych odpowiedzialni za utrzymanie wysokiej jakości danych i integrację nowych narzędzi skorzystają z niższego współczynnika halucynacji i wyższej dokładności faktów GPT-4.1. Bardziej przewidywalne zachowanie wyjściowe pomaga w budowaniu niezawodnych przepływów pracy danych, nawet gdy zasoby zespołu są ograniczone.
  • Specjaliści ds. bezpieczeństwa IT , których zadaniem jest osadzanie zabezpieczeń w potokach DevOps, mogą znaleźć wartość w odporności GPT-4.1 na typowe jailbreaki i kontrolowanym zachowaniu wyjściowym. Podczas gdy jego wynik odporności na jailbreaki w środowisku akademickim pozostawia pole do poprawy, wysoka wydajność modelu w przypadku ataków na ludzi pomaga w bezpiecznej integracji z wewnętrznymi narzędziami.

W tych zastosowaniach pozycjonowanie GPT-4.1 jako modelu zoptymalizowanego pod kątem przejrzystości, zgodności i efektywności wdrożenia czyni go atrakcyjną opcją dla średnich przedsiębiorstw, które chcą zrównoważyć wydajność z wymaganiami operacyjnymi.

Podczas gdy GPT-4.5 stanowił kamień milowy skalowania w rozwoju modelu, GPT-4.1 koncentruje się na użyteczności. Nie jest najdroższy ani najbardziej multimodalny, ale zapewnia znaczące korzyści w obszarach, które mają znaczenie dla przedsiębiorstw: dokładności, wydajności wdrażania i kosztów.

To nowe pozycjonowanie odzwierciedla szerszy trend branżowy — odchodzenie od budowania największych modeli za wszelką cenę i dążenie do uczynienia zdolnych modeli bardziej dostępnymi i adaptowalnymi. GPT-4.1 spełnia tę potrzebę, oferując elastyczne, gotowe do produkcji narzędzie dla zespołów próbujących głębiej osadzić AI w swoich operacjach biznesowych.

W miarę jak OpenAI nadal rozwija swoje oferty modeli, GPT-4.1 stanowi krok naprzód w demokratyzacji zaawansowanej AI dla środowisk korporacyjnych. Dla decydentów równoważących możliwości z ROI oferuje on jaśniejszą ścieżkę do wdrożenia bez poświęcania wydajności lub bezpieczeństwa.

Codzienne spostrzeżenia na temat przypadków użycia biznesowego z VB Daily

Jeśli chcesz zaimponować swojemu szefowi, VB Daily ma dla Ciebie rozwiązanie. Dajemy Ci wewnętrzny wgląd w to, co firmy robią z generatywną sztuczną inteligencją, od zmian regulacyjnych po praktyczne wdrożenia, dzięki czemu możesz dzielić się spostrzeżeniami, aby uzyskać maksymalny zwrot z inwestycji.

Przeczytaj naszą Politykę prywatności

Dziękujemy za subskrypcję. Sprawdź więcej newsletterów VB tutaj .

Wystąpił błąd.

venturebeat

venturebeat

Podobne wiadomości

Wszystkie wiadomości
Animated ArrowAnimated ArrowAnimated Arrow