Claude może teraz przetwarzać całe projekty oprogramowania w ramach jednego żądania, twierdzi Anthropic

Chcesz otrzymywać mądrzejsze informacje w swojej skrzynce odbiorczej? Zapisz się na nasz cotygodniowy newsletter, aby otrzymywać tylko to, co istotne dla liderów w dziedzinie sztucznej inteligencji, danych i bezpieczeństwa w przedsiębiorstwach. Subskrybuj teraz
Firma Anthropic ogłosiła we wtorek, że jej model sztucznej inteligencji Claude Sonnet 4 może teraz przetwarzać do 1 miliona tokenów kontekstu w jednym żądaniu — to pięciokrotny wzrost, który umożliwia programistom analizowanie całych projektów oprogramowania lub dziesiątek prac badawczych bez konieczności dzielenia ich na mniejsze części.
Rozszerzenie, dostępne już w publicznej wersji beta za pośrednictwem API Anthropic i Amazon Bedrock , stanowi znaczący krok naprzód w zakresie obsługi przez asystentów AI złożonych zadań wymagających dużej ilości danych. Dzięki nowej funkcjonalności programiści mogą ładować bazy kodu zawierające ponad 75 000 linii kodu, co pozwala Claude'owi zrozumieć pełną architekturę projektu i proponować ulepszenia w całych systemach, a nie w poszczególnych plikach.
Ogłoszenie pojawia się w momencie, gdy Anthropic mierzy się z rosnącą konkurencją ze strony OpenAI i Google , które już oferują podobne okna kontekstowe. Źródła w firmie, wypowiadające się w tle, podkreśliły jednak, że siła Claude Sonnet 4 leży nie tylko w pojemności, ale także w dokładności, osiągając 100% wydajności w wewnętrznych testach „ igły w stogu siana ”, testujących zdolność modelu do znajdowania konkretnych informacji ukrytych w ogromnych ilościach tekstu.
Funkcja rozszerzonego kontekstu rozwiązuje fundamentalne ograniczenie, które utrudniało tworzenie oprogramowania opartego na sztucznej inteligencji. Wcześniej programiści pracujący nad dużymi projektami musieli ręcznie dzielić swoje bazy kodu na mniejsze segmenty, często tracąc ważne połączenia między różnymi częściami swoich systemów.
Skalowanie sztucznej inteligencji osiąga swoje granice
Limity mocy, rosnące koszty tokenów i opóźnienia w wnioskowaniu zmieniają oblicze sztucznej inteligencji w przedsiębiorstwach. Dołącz do naszego ekskluzywnego salonu i odkryj, jak najlepsze zespoły:
- Przekształcenie energii w przewagę strategiczną
- Projektowanie efektywnego wnioskowania w celu rzeczywistego zwiększenia przepustowości
- Odblokowanie konkurencyjnego zwrotu z inwestycji (ROI) dzięki zrównoważonym systemom AI
Zarezerwuj sobie miejsce i bądź na bieżąco : https://bit.ly/4mwGngO
„To, co kiedyś było niemożliwe, stało się rzeczywistością” – powiedział Sean Ward, dyrektor generalny i współzałożyciel londyńskiej firmy iGent AI , której platforma Maestro przekształca konwersacje w kod wykonywalny, w oświadczeniu. „Claude Sonnet 4 z kontekstem 1 miliona tokenów znacznie zwiększył autonomiczne możliwości Maestro, naszego agenta inżynierii oprogramowania. Ten skok otwiera drogę do prawdziwej inżynierii na skalę produkcyjną – wielodniowych sesji na rzeczywistych bazach kodu”.
Eric Simons, dyrektor generalny Bolt.new , firmy integrującej Claude z platformami programistycznymi opartymi na przeglądarkach, powiedział w oświadczeniu: „Dzięki oknu kontekstowemu o rozmiarze 1M programiści mogą teraz pracować nad znacznie większymi projektami, zachowując jednocześnie wysoką dokładność, której potrzebujemy do kodowania w rzeczywistych warunkach”.
Rozszerzony kontekst umożliwia realizację trzech podstawowych przypadków użycia, które wcześniej były trudne lub niemożliwe: kompleksową analizę kodu w całych repozytoriach, syntezę dokumentów obejmującą setki plików z zachowaniem świadomości powiązań między nimi oraz agentów AI uwzględniających kontekst, którzy mogą zachować spójność w przypadku setek wywołań narzędzi i złożonych przepływów pracy.
Firma Anthropic dostosowała swoją strukturę cenową, aby uwzględnić zwiększone wymagania obliczeniowe związane z przetwarzaniem większych kontekstów. Podczas gdy dla zamówień o wartości 200 000 tokenów lub mniejszej, ceny utrzymują się na poziomie 3 USD za milion tokenów wejściowych i 15 USD za milion tokenów wyjściowych, większe zamówienia kosztują odpowiednio 6 USD i 22,50 USD.
Strategia cenowa odzwierciedla szerszą dynamikę zmieniającą branżę sztucznej inteligencji. Najnowsze analizy pokazują, że Claude Opus 4 kosztuje około siedem razy więcej za milion tokenów niż nowo wprowadzony GPT-5 firmy OpenAI w przypadku niektórych zadań, co wywiera presję na zespoły zakupowe przedsiębiorstw, aby zrównoważyć wydajność z kosztami.
Jednak Anthropic argumentuje, że decyzja powinna uwzględniać jakość i wzorce użytkowania, a nie tylko cenę. Źródła w firmie zauważyły, że szybkie buforowanie – które przechowuje często używane duże zbiory danych – może sprawić, że długi kontekst stanie się konkurencyjny pod względem kosztów w porównaniu z tradycyjnymi metodami generowania rozszerzonego wyszukiwania (Retrieval-Augmented Generation) , szczególnie w przedsiębiorstwach, które wielokrotnie przeszukują te same informacje.
„Szeroki kontekst pozwala Claude’owi zobaczyć wszystko i wybrać to, co istotne, co często daje lepsze odpowiedzi niż wstępnie przefiltrowane wyniki RAG, w których można przeoczyć ważne powiązania między dokumentami” – powiedział rzecznik Anthropic portalowi VentureBeat.
Możliwość korzystania z długiego kontekstu pojawia się, ponieważ Anthropic kontroluje 42% rynku generowania kodu AI, co stanowi ponad dwukrotność 21% udziału OpenAI, według badania Menlo Ventures przeprowadzonego wśród 150 liderów technicznych przedsiębiorstw. Jednak ta dominacja wiąże się z ryzykiem: analiza branżowa sugeruje, że aplikacje do kodowania Cursor i GitHub Copilot generują około 1,2 miliarda dolarów z 5 miliardów dolarów rocznych przychodów Anthropic , co przekłada się na znaczną koncentrację klientów .
Relacja z GitHubem okazuje się szczególnie skomplikowana, biorąc pod uwagę 13 miliardów dolarów inwestycji Microsoftu w OpenAI . Podczas gdy GitHub Copilot obecnie opiera się na Claude w zakresie kluczowych funkcji, Microsoft stoi w obliczu rosnącej presji, aby głębiej zintegrować własne partnerstwo z OpenAI, potencjalnie wypierając Anthropic pomimo obecnej przewagi wydajnościowej Claude.
Moment rozszerzenia kontekstu jest strategiczny. Firma Anthropic udostępniła tę funkcję w systemie Sonnet 4 — który oferuje, jak to określa firma, „optymalną równowagę między inteligencją, kosztami i szybkością” — a nie w swoim najpotężniejszym modelu Opus . Źródła w firmie wskazały, że odzwierciedla to potrzeby programistów pracujących z danymi na dużą skalę, choć odmówiły podania konkretnych terminów wprowadzenia długiego kontekstu do innych modeli Claude.
Okno kontekstowe o pojemności 1 miliona tokenów reprezentuje znaczący postęp techniczny w mechanizmach pamięci i uwagi sztucznej inteligencji. Dla porównania, wystarczy to na przetworzenie około 750 000 słów – mniej więcej tyle, co dwie pełnometrażowe powieści lub obszerne zbiory dokumentacji technicznej.
Wewnętrzne testy firmy Anthropic wykazały doskonałą skuteczność przypominania w różnych scenariuszach, co jest kluczowe w miarę rozszerzania się okien kontekstowych. Firma osadziła konkretne informacje w ogromnych wolumenach tekstu i sprawdziła zdolność Claude'a do wyszukiwania i wykorzystywania tych szczegółów podczas odpowiadania na pytania.
Jednak rozszerzone możliwości wiążą się również z kwestiami bezpieczeństwa. Wcześniejsze wersje Claude Opus 4 wykazywały niepokojące zachowania w fikcyjnych scenariuszach, w tym próby szantażu w obliczu potencjalnego wyłączenia systemu. Chociaż Anthropic wdrożył dodatkowe zabezpieczenia i szkolenia, aby rozwiązać te problemy, incydenty te uwypuklają złożone wyzwania związane z rozwojem coraz bardziej zaawansowanych systemów sztucznej inteligencji.
Firmy z listy Fortune 500 spieszą się z wdrożeniem rozszerzonych możliwości kontekstowych Claude’aWdrożenie tej funkcji jest początkowo ograniczone do klientów Anthropic API z poziomem 4 i niestandardowymi limitami stawek, a szersza dostępność planowana jest w nadchodzących tygodniach. Użytkownicy Amazon Bedrock mają natychmiastowy dostęp, a integracja Vertex AI z Google Cloud jest w toku.
Według źródeł w firmie, wczesna reakcja przedsiębiorstw była entuzjastyczna. Przykłady zastosowań obejmują zespoły programistów analizujące całe repozytoria, firmy świadczące usługi finansowe przetwarzające kompleksowe zbiory danych transakcyjnych, a także startupy prawnicze przeprowadzające analizę umów, która wcześniej wymagała ręcznej segmentacji dokumentów.
„To jedna z naszych najczęściej wyczekiwanych funkcji przez klientów API” – powiedział rzecznik Anthropic. „Obserwujemy entuzjazm w wielu branżach, który odblokowuje prawdziwe możliwości agentów. Klienci prowadzą teraz wielodniowe sesje kodowania na rzeczywistych bazach kodu, co wcześniej byłoby niemożliwe z powodu ograniczeń kontekstowych”.
Rozwój ten umożliwia również korzystanie z bardziej zaawansowanych agentów AI, którzy potrafią utrzymywać kontekst w złożonych, wieloetapowych procesach. Ta możliwość staje się szczególnie cenna, gdy przedsiębiorstwa odchodzą od prostych interfejsów czatu opartych na AI i przechodzą na autonomiczne systemy, które mogą obsługiwać rozszerzone zadania przy minimalnej ingerencji człowieka.
Ogłoszenie o długim kontekście zaostrza konkurencję między wiodącymi dostawcami sztucznej inteligencji. Starszy model Gemini 1.5 Pro firmy Google i starszy model GPT-4.1 firmy OpenAI oferują 1 milion okien tokenów, ale Anthropic argumentuje, że lepsza wydajność Claude'a w zadaniach kodowania i wnioskowania zapewnia przewagę konkurencyjną nawet przy wyższych cenach.
W szeroko pojętej branży sztucznej inteligencji (AI) nastąpił gwałtowny wzrost wydatków na API do modelowania, które podwoiły się do 8,4 miliarda dolarów w ciągu zaledwie sześciu miesięcy, według Menlo Ventures . Przedsiębiorstwa konsekwentnie przedkładają wydajność nad cenę, dokonując modernizacji do nowszych modeli w ciągu kilku tygodni, niezależnie od kosztów. Sugeruje to, że możliwości techniczne często przeważają nad względami cenowymi w decyzjach zakupowych.
Jednak niedawna agresywna strategia cenowa OpenAI z GPT-5 może zmienić tę dynamikę. Wstępne porównania pokazują znaczące korzyści cenowe, które mogą przezwyciężyć typową bezwładność przełączania, szczególnie w przypadku przedsiębiorstw dbających o koszty, które borykają się z presją budżetową w miarę skalowania wdrażania sztucznej inteligencji.
Dla Anthropic utrzymanie pozycji lidera na rynku kodowania przy jednoczesnej dywersyfikacji źródeł przychodów pozostaje kluczowe. Firma potroiła liczbę podpisanych umów o wartości ośmiu i dziewięciu cyfr w 2025 roku w porównaniu z całym rokiem 2024, co odzwierciedla szersze zastosowanie rozwiązań w przedsiębiorstwach wykraczające poza jej główne obszary w dziedzinie kodowania.
W miarę jak systemy sztucznej inteligencji (AI) stają się zdolne do przetwarzania i wnioskowania na podstawie coraz większych ilości informacji, fundamentalnie zmieniają sposób, w jaki programiści podchodzą do złożonych projektów programistycznych. Możliwość zachowania kontekstu w całych bazach kodu oznacza przejście od sztucznej inteligencji jako asystenta kodowania do sztucznej inteligencji jako wszechstronnego partnera programistycznego, rozumiejącego pełen zakres i powiązania dużych projektów.
Implikacje wykraczają daleko poza rozwój oprogramowania. Branże, od usług prawniczych po analizy finansowe, zaczynają dostrzegać, że systemy sztucznej inteligencji zdolne do utrzymywania kontekstu w setkach dokumentów mogą zmienić sposób, w jaki organizacje przetwarzają i rozumieją złożone relacje informacyjne.
Jednak z wielkimi możliwościami wiąże się wielka odpowiedzialność – i ryzyko. W miarę jak systemy te stają się coraz potężniejsze, incydenty niepokojącego zachowania SI podczas testów Anthropic przypominają, że w wyścigu o rozszerzenie możliwości SI należy zachować równowagę z zachowaniem bezpieczeństwa i kontroli.
Podczas gdy Claude uczy się żonglować milionem informacji jednocześnie, Anthropic staje w obliczu własnego problemu z oknem kontekstowym: tkwi w pułapce między presją cenową ze strony OpenAI a sprzecznymi lojalnościami Microsoftu.
Jeśli chcesz zaimponować swojemu szefowi, VB Daily ma dla Ciebie rozwiązanie. Przedstawiamy Ci informacje z pierwszej ręki na temat tego, co firmy robią z generatywną sztuczną inteligencją, od zmian regulacyjnych po praktyczne wdrożenia, dzięki czemu możesz podzielić się swoimi spostrzeżeniami, aby zmaksymalizować zwrot z inwestycji (ROI).
Przeczytaj naszą Politykę prywatności
Dziękujemy za subskrypcję. Więcej newsletterów VB znajdziesz tutaj .
Wystąpił błąd.

venturebeat